Hapus baris duplikat dari file

Saya membuat kamus dari kata sandi yang paling sering digunakan, yang populer atau yang paling sering digunakan oleh pengguna (… Jangan tanya kenapa… HAHAHA), untuk ini saya mengambil teks dari kamus lain dll, tetapi, saya menemukan diri saya dalam situasi di mana ada banyak kata sandi duplikat, dan saya perlu menghilangkan baris duplikat.

Artinya, misalnya ... kami memiliki file berikut: lulus.txt

Dan isinya adalah:

asdasd
lola
cinta
asdasd
Windows
admin
linux
asdasd
cinta

 Seperti yang kita lihat, kita telah mengulang «cinta"Y"asdasd«, Yang terakhir 3 kali. Bagaimana cara menghapus garis duplikat?

Untuk melakukannya sederhana, dengan perintah ini:

cat pass.txt | sort | uniq > pass-listos.txt

Ini akan menghasilkan file bernama pass-ready.txt yang akan berisi:

admin
asdasd
linux
lola
cinta
Windows

Apa yang dilakukan perintah itu SANGAT sederhana ...

  1. pass kucing.txt - »Buat daftar konten file.
  2. jenis - »Urutkan konten menurut abjad.
  3. unik - »Menghilangkan garis duplikat.
  4. > pass-ready.txt - »Hasil dari perintah sebelumnya, taruh di file pass-ready.txt (yang, karena tidak ada, akan membuatnya)

Sesederhana itu ... Saya baru saja menemukan perintah itu jenis ya, itu sangat bagus ... tapi, bersama dengan unik, mereka adalah permata seni 😀

Saya harap Anda telah membantu.

salam

kertas dinding: Jika Anda ingin mengunduh wallpaper «Saya Suka #! / Bin / bash"Ini tautannya:

Unduh Wallpaper

tinggalkan Komentar Anda

Alamat email Anda tidak akan dipublikasikan. Bidang yang harus diisi ditandai dengan *

*

*

  1. Penanggung jawab data: Miguel Ángel Gatón
  2. Tujuan data: Mengontrol SPAM, manajemen komentar.
  3. Legitimasi: Persetujuan Anda
  4. Komunikasi data: Data tidak akan dikomunikasikan kepada pihak ketiga kecuali dengan kewajiban hukum.
  5. Penyimpanan data: Basis data dihosting oleh Occentus Networks (UE)
  6. Hak: Anda dapat membatasi, memulihkan, dan menghapus informasi Anda kapan saja.

  1.   Carlos dijo

    Anda juga dapat menggunakan sort -u.

    Selamat atas blognya, saya menyukainya!

    1.    KZKG ^ Gaara dijo

      Ya benar.
      Tidak ada, terima kasih banyak sudah berkomentar 😀

      Selamat datang 😉
      salam

  2.   Diego dijo

    Masalahnya adalah itu mengubah urutan kata, itu berhasil ... tetapi pada akhirnya hasilnya sangat berbeda dari aslinya dalam urutan (yang mungkin dalam beberapa kasus itu penting)

    1.    KZKG ^ Gaara dijo

      Ya memang, ini mengurutkan kata-kata berdasarkan abjad, jadi jika konten diperlukan TANPA variasi, solusi ini bukanlah solusi yang ideal.

    2.    Carlos dijo

      Jangan mengacau, bagaimana jika Anda tidak meletakkan perintah sortir? tolong pikirkan sedikit lebih banyak dan jangan biarkan semuanya dikunyah.

      cat pass.txt | uniq> pass-ready.txt

      1.    Eliuber dijo

        tidak berhasil, saya mencobanya

      2.    bob dijo

        tidak berfungsi karena baris "berulang" harus kontinu

  3.   tidak terkenal dijo

    terima kasih

    itu cukup berguna

  4.   giskard dijo

    Baik sekali! Solusi sederhana dan jelas. Saya suka hal-hal seperti itu 🙂
    Saya harus mengakui bahwa saya akan melakukan sesuatu dengan Python tetapi solusi ini baik-baik saja.

    1.    KZKG ^ Gaara dijo

      terima kasih ^ - ^

  5.   Betulkah dijo

    Halo! Baik sekali!
    Saya punya pertanyaan
    itu akan berhasil untuk saya untuk contoh berikut:
    ABCD 1111
    DEFG 2222 45455
    ABCD 1111
    DEFG 2222

    Barisnya sama tetapi mereka memiliki spasi dan beberapa karakter lagi ... apakah ini memeriksa kata yang sama? atau menurut garis? Aku jelaskan?
    mulai sekarang, saya ucapkan banyak terima kasih.
    Sebuah pelukan

    1.    KZKG ^ Gaara dijo

      Halo,
      Seperti yang saya lihat, ini membandingkan baris dan bukan kolom, jadi dalam contoh yang Anda berikan kepada saya ini akan menghapus baris ke-1 atau ke-3, ke-2 dan ke-4, meskipun keduanya hampir sama, mereka tidak 100% identik karena memiliki a kolom perbedaan. 😉

      Terima kasih atas komentarnya ^ - ^

      1.    Tino dijo

        Terima kasih untuk Anda !! sebelumnya butuh satu jam untuk oracle untuk menghilangkan duplikat ... sekarang butuh 30 detik dengan jenis kucing !!

  6.   MegaBedder dijo

    Saya membutuhkannya di PHP: S

    1.    KZKG ^ Gaara dijo

      Uff ... Saya PHP, saya sangat, sangat pendek, saya bukan benar-benar seorang programmer 🙁

      Maafkan aku.

    2.    brunocascio dijo

      Untuk php terdapat array_unique (…) dalam dokumentasi resmi PHP, Anda akan menemukan banyak fungsi penting dan efisien ..

      Mengenai jenisnya, kecuali Anda membutuhkannya, itu tidak perlu ... Waktu eksekusi dan memori terbuang percuma. (untuk apa yang dilakukan di pos)

      Salam!

  7.   kutu buku dijo

    Wow !! kamus untuk digunakan sebagai kekerasan !! XD

  8.   Gustavo dijo

    Sangat bagus kombinasi sortir dengan uniq! Ini banyak membantu saya untuk menghapus garis duplikat.

    terima kasih

  9.   Gustavo dijo

    Komentar Carlos, terlepas dari kesombongannya, tidak valid. Dia mengatakan untuk menggunakan:

    cat pass.txt | uniq> pass-ready.txt

    namun prasyarat uniq adalah file tersebut diurutkan. Anda harus memikirkannya sedikit lebih banyak atau memberi tahu diri Anda sebelumnya.

  10.   Eliuber dijo

    sangat bagus, Anda menghemat banyak waktu menjalankan pesta saya

  11.   Batu Flint dijo

    awk '! array_temp [$ 0] ++' pass.txt> pass-ready.txt
    dengan ini garis-garis tersebut dihilangkan tanpa harus teratur.

  12.   minimiyo dijo

    Terima kasih banyak untuk input!

    Meski akan keren bisa membuatnya unik tanpa mengubah urutannya, tapi hei, perintah yang mudah dan berguna!

  13.   Felipe Gutierrez dijo

    Terima kasih, itu sangat membantu saya 😉

  14.   ernesto dijo

    aku punya ini
    C000006158880201502051056088364 C00-06158880
    C000007601673201503051056088364 C00-07601673
    C000008659304201504051056088364 C00-08659304
    T 0809074070562015120818144287185REAÑO RUBIÑOS EMILIA DORIS
    T 0809092979972016010818144287185REAÑO RUBIÑOS EMILIA DORIS
    C000005398451201501231044214375 C00-05398451
    C000007674996201503051000000286 C00-07674996
    C000008514288201504051000000463 C00-08514288
    C000011613498201506051056088070 C00-11613498

    Bagaimana cara membuatnya hanya melukis duplikat per pelanggan dalam sebuah file dan membiarkan yang bukan duplikat di file lain?

    pelanggan ada di pos 23 (10 posisi)

  15.   Fernando dijo

    urutkan -u -k 1,1 File.txt> result.txt

    Ini mengurutkan file dengan bidang pertama

  16.   Saya diego dijo

    2020 dan masih menjabat, terima kasih banyak!

  17.   sarah dijo

    Bn co thể hướng dẫn cách loại bỏ các dòng trùng lặp của nhiều file teks di Linux atau Windows c không? Cũng như trường hợp của bạn, khi tôi tạo file từ iển vì tôi chia nội dung ra nên Có khá nhiều file và chắc chắn con nhiều dng trùng. Ví dụ: File 1 của tôi co 5 dòng, file 2 co 15 dòng (co 2 dòng trùng lặp với File 1. Tôi muốn co kết quả, File 1 vẫn giữ nguyên 5 dòng, File 2 thì only b 2 dòng file .
    Như bạn biết co nhiều li do chúng ta ko thể gộp các file txt ó lại với nhau, vì những file teks từ iển rất là nhiều ký, chẳng hn.nhn. Hal ini dapat dilakukan dengan baik oleh Windows hơn, và chắc chắn ko thể gộp chúng bên Windows c. Hy vọng nhận c phản hồi từ bạn!