Ta bort dubbla rader från en fil

Jag gör en ordlista över de mest använda lösenorden, de populäraste eller ofta använda av användare (... Fråga inte varför ... HAHAHA), för detta tar jag text från andra ordböcker etc, men jag befinner mig i situationen att det finns många dubbla lösenord, och jag måste eliminera dubbleradraderna.

Det är till exempel ... vi har följande fil: pass.txt

Och dess innehåll är:

asdasd
lola
älskar
asdasd
fönster
administration
linux
asdasd
älskar

 Som vi ser har vi upprepat «älskar»Y«asdasd«, Den senare tre gånger. Hur tar jag bort dubbla rader?

Att göra det är enkelt med det här kommandot:

cat pass.txt | sort | uniq > pass-listos.txt

Detta genererar en fil som heter pass-ready.txt som kommer att innehålla:

administration
asdasd
linux
lola
älskar
fönster

Vad kommandot gör är MYCKET enkelt ...

  1. kattpass.txt - »Lista innehållet i filen.
  2. sortera - »Sortera innehållet alfabetiskt.
  3. unik - »Eliminera dubbla rader.
  4. > pass-ready.txt - »Resultatet av de tidigare kommandona, lägg det i filen pass-ready.txt (som, eftersom det inte finns, kommer att skapa det)

Det är så enkelt ... Jag upptäckte just att kommandot sortera ja, det är väldigt bra ... men tillsammans med unik, de är en juvel av konst 😀

Jag hoppas att du har varit till hjälp.

hälsningar

Bakgrund: Om du vill ladda ner bakgrundsbilden «Jag älskar #! / Bin / bash"Här är länken:

Ladda ner bakgrundsbild

Lämna din kommentar

Din e-postadress kommer inte att publiceras. Obligatoriska fält är markerade med *

*

*

  1. Ansvarig för uppgifterna: Miguel Ángel Gatón
  2. Syftet med uppgifterna: Kontrollera skräppost, kommentarhantering.
  3. Legitimering: Ditt samtycke
  4. Kommunikation av uppgifterna: Uppgifterna kommer inte att kommuniceras till tredje part förutom enligt laglig skyldighet.
  5. Datalagring: databas värd för Occentus Networks (EU)
  6. Rättigheter: När som helst kan du begränsa, återställa och radera din information.

  1.   Carlos sade

    Du kan också använda sort -u.

    Grattis till bloggen, jag älskar det!

    1.    KZKG ^ Gaara sade

      Ja visst.
      Ingenting, tack så mycket för att du kommenterade 😀

      Välkommen 😉
      hälsningar

  2.   diego sade

    Problemet med det är att det ändrar ordens ordning, det fungerar ... men i slutändan skiljer sig resultatet mycket från originalet i ordningen (vilket kanske i vissa fall spelar roll)

    1.    KZKG ^ Gaara sade

      Ja, det ordnar orden i alfabetisk ordning, så om innehållet behövdes UTAN variationer är den här lösningen inte den perfekta.

    2.    Carlos sade

      Skruva inte, vad händer det om du inte lägger till sorteringskommandot? snälla tänka lite mer och inte ha allt tuggat upp.

      kattpass.txt | uniq> pass-ready.txt

      1.    Eliuber sade

        det fungerar inte, jag försökte det

      2.    bob sade

        fungerar inte eftersom "upprepade" rader måste vara kontinuerliga

  3.   icke namngiven sade

    Tack

    det är ganska användbart

  4.   giskard sade

    Mycket bra! En enkel och tydlig lösning. Jag gillar sådana saker 🙂
    Jag måste erkänna att jag skulle ha gjort något i Python men den här lösningen är bra.

    1.    KZKG ^ Gaara sade

      tack ^ - ^

  5.   tino sade

    Hallå! mycket bra!
    Jag har en fråga snälla
    det skulle fungera för mig för följande exempel:
    ABCD 1111
    DEFG 2222 45455
    ABCD 1111
    DEFG 2222

    Raderna är desamma men de har mellanslag och några fler tecken ... söker det efter samma ord? eller per linje? Jag förklarar?
    från och med nu tackar jag dig mycket.
    en kram

    1.    KZKG ^ Gaara sade

      Hallå där,
      Som jag såg jämför detta rader och inte kolumner, så i exemplet du ger mig skulle detta ta bort antingen den första raden eller den tredje, andra och fjärde raden, även om de är nästan identiska, är de inte 1% identiska eftersom de har en skillnadskolumn. 😉

      Tack för kommentaren ^ - ^

      1.    TINO sade

        Tack vare dig!! innan det tog en timme för orakel att eliminera dubbletter ... nu tar det 30 sekunder med kattens sortering !!

  6.   MegaBedder sade

    Jag behöver det i PHP: S

    1.    KZKG ^ Gaara sade

      Uff ... Jag är PHP, jag är väldigt, väldigt kort, jag är inte riktigt programmerare 🙁

      Jag är ledsen.

    2.    brunocascio sade

      För php finns array_unique (...) i den officiella PHP-dokumentationen. Du hittar många viktiga och effektiva funktioner.

      När det gäller sorteringen är det inte nödvändigt om du inte behöver det ... Exekveringstid och minne slösas bort. (för vad som görs i inlägget)

      Hälsningar!

  7.   nörd sade

    Wow !! en ordbok att använda som brute force !! XD

  8.   Gustavo sade

    Mycket bra kombinationen sort med uniq! Det hjälpte mig mycket att ta bort dubbla rader.

    tack

  9.   Gustavo sade

    Trots hans arrogans är Carlos kommentar inte giltig. Han säger att använda:

    kattpass.txt | uniq> pass-ready.txt

    En förutsättning för uniq är dock att filen beställs. Du borde ha funderat på det lite mer eller informerat dig själv tidigare.

  10.   Eliuber sade

    väldigt bra, du sparade mig mycket tid på att köra min bash

  11.   Flintstenar sade

    awk '! array_temp [$ 0] ++' pass.txt> pass-ready.txt
    med detta elimineras raderna utan att behöva beställas.

  12.   minimi sade

    Tack så mycket för bidraget!

    Även om det vore coolt att kunna göra det unikt utan att ändra ordningen, men hej, ett enkelt och användbart kommando!

  13.   Felipe Gutierrez sade

    Tack, det hjälpte mig mycket 😉

  14.   ernesto sade

    jag har den
    C000006158880201502051056088364 C00-06158880
    C000007601673201503051056088364 C00-07601673
    C000008659304201504051056088364 C00-08659304
    T 0809074070562015120818144287185 REAÑO RUBIÑOS EMILIA DORIS
    T 0809092979972016010818144287185 REAÑO RUBIÑOS EMILIA DORIS
    C000005398451201501231044214375 C00-05398451
    C000007674996201503051000000286 C00-07674996
    C000008514288201504051000000463 C00-08514288
    C000011613498201506051056088070 C00-11613498

    Hur får jag det att bara måla duplikaten per abonnent i en fil och lämna de som inte är dubbletter i en annan?

    abonnenten är i pos 23 (10 positioner)

  15.   Fernando sade

    sortera -u -k 1,1 File.txt> result.txt

    Detta sorterar filen efter det första fältet

  16.   Jag är Diego sade

    2020 och serverar fortfarande, tack så mycket!

  17.   sarah sade

    Bạn co thể hướng dẫn cách loại bỏ các dòng trùng lặp của nhiều file text trong Linux or Windows được không? Cũng như trường hợp của bạn, khi tôi tạo file từ điển vì tôi chia nội dung ra nên Có khá nhiều file và chắc chắn con nhiều dòng trùng lặp giữa Các file. Ví dụ: File 1 của tôi co 5 dòng, file 2 co 15 dòng (co 2 dòng trùng lặp với File 1. Tôi muốn co kết quả, File 1 vẫn giữ nguyên 5 dòng, File 2 thì only bỏ 2 dòng giống file 1 .
    Như bạn biết co nhiều li do chúng ta ko thể gộp các file txt đó lại với nhau, vì những file text từ điển rất ư là nhiều ký, chẳng hạn như Rockyou. Thực tế tôi muốn thực hiện điều này bên Windows hơn, và chắc chắn ko thể gộp chúng ở bên Windows được. 🙂 Hy vọng nhận được phản hồi từ bạn!