Saya membuat kamus dari kata sandi yang paling sering digunakan, yang populer atau yang paling sering digunakan oleh pengguna (… Jangan tanya kenapa… HAHAHA), untuk ini saya mengambil teks dari kamus lain dll, tetapi, saya menemukan diri saya dalam situasi di mana ada banyak kata sandi duplikat, dan saya perlu menghilangkan baris duplikat.
Artinya, misalnya ... kami memiliki file berikut: lulus.txt
Dan isinya adalah:
asdasd
lola
cinta
asdasd
Windows
admin
linux
asdasd
cinta
Seperti yang kita lihat, kita telah mengulang «cinta"Y"asdasd«, Yang terakhir 3 kali. Bagaimana cara menghapus garis duplikat?
Untuk melakukannya sederhana, dengan perintah ini:
cat pass.txt | sort | uniq > pass-listos.txt
Ini akan menghasilkan file bernama pass-ready.txt yang akan berisi:
admin
asdasd
linux
lola
cinta
Windows
Apa yang dilakukan perintah itu SANGAT sederhana ...
- pass kucing.txt - »Buat daftar konten file.
- jenis - »Urutkan konten menurut abjad.
- unik - »Menghilangkan garis duplikat.
- > pass-ready.txt - »Hasil dari perintah sebelumnya, taruh di file pass-ready.txt (yang, karena tidak ada, akan membuatnya)
Sesederhana itu ... Saya baru saja menemukan perintah itu jenis ya, itu sangat bagus ... tapi, bersama dengan unik, mereka adalah permata seni 😀
Saya harap Anda telah membantu.
salam
Anda juga dapat menggunakan sort -u.
Selamat atas blognya, saya menyukainya!
Ya benar.
Tidak ada, terima kasih banyak sudah berkomentar 😀
Selamat datang 😉
salam
Masalahnya adalah itu mengubah urutan kata, itu berhasil ... tetapi pada akhirnya hasilnya sangat berbeda dari aslinya dalam urutan (yang mungkin dalam beberapa kasus itu penting)
Ya memang, ini mengurutkan kata-kata berdasarkan abjad, jadi jika konten diperlukan TANPA variasi, solusi ini bukanlah solusi yang ideal.
Jangan mengacau, bagaimana jika Anda tidak meletakkan perintah sortir? tolong pikirkan sedikit lebih banyak dan jangan biarkan semuanya dikunyah.
cat pass.txt | uniq> pass-ready.txt
tidak berhasil, saya mencobanya
tidak berfungsi karena baris "berulang" harus kontinu
terima kasih
itu cukup berguna
Baik sekali! Solusi sederhana dan jelas. Saya suka hal-hal seperti itu 🙂
Saya harus mengakui bahwa saya akan melakukan sesuatu dengan Python tetapi solusi ini baik-baik saja.
terima kasih ^ - ^
Halo! Baik sekali!
Saya punya pertanyaan
itu akan berhasil untuk saya untuk contoh berikut:
ABCD 1111
DEFG 2222 45455
ABCD 1111
DEFG 2222
Barisnya sama tetapi mereka memiliki spasi dan beberapa karakter lagi ... apakah ini memeriksa kata yang sama? atau menurut garis? Aku jelaskan?
mulai sekarang, saya ucapkan banyak terima kasih.
Sebuah pelukan
Halo,
Seperti yang saya lihat, ini membandingkan baris dan bukan kolom, jadi dalam contoh yang Anda berikan kepada saya ini akan menghapus baris ke-1 atau ke-3, ke-2 dan ke-4, meskipun keduanya hampir sama, mereka tidak 100% identik karena memiliki a kolom perbedaan. 😉
Terima kasih atas komentarnya ^ - ^
Terima kasih untuk Anda !! sebelumnya butuh satu jam untuk oracle untuk menghilangkan duplikat ... sekarang butuh 30 detik dengan jenis kucing !!
Saya membutuhkannya di PHP: S
Uff ... Saya PHP, saya sangat, sangat pendek, saya bukan benar-benar seorang programmer 🙁
Maafkan aku.
Untuk php terdapat array_unique (…) dalam dokumentasi resmi PHP, Anda akan menemukan banyak fungsi penting dan efisien ..
Mengenai jenisnya, kecuali Anda membutuhkannya, itu tidak perlu ... Waktu eksekusi dan memori terbuang percuma. (untuk apa yang dilakukan di pos)
Salam!
Wow !! kamus untuk digunakan sebagai kekerasan !! XD
Sangat bagus kombinasi sortir dengan uniq! Ini banyak membantu saya untuk menghapus garis duplikat.
terima kasih
Komentar Carlos, terlepas dari kesombongannya, tidak valid. Dia mengatakan untuk menggunakan:
cat pass.txt | uniq> pass-ready.txt
namun prasyarat uniq adalah file tersebut diurutkan. Anda harus memikirkannya sedikit lebih banyak atau memberi tahu diri Anda sebelumnya.
sangat bagus, Anda menghemat banyak waktu menjalankan pesta saya
awk '! array_temp [$ 0] ++' pass.txt> pass-ready.txt
dengan ini garis-garis tersebut dihilangkan tanpa harus teratur.
Terima kasih banyak untuk input!
Meski akan keren bisa membuatnya unik tanpa mengubah urutannya, tapi hei, perintah yang mudah dan berguna!
Terima kasih, itu sangat membantu saya 😉
aku punya ini
C000006158880201502051056088364 C00-06158880
C000007601673201503051056088364 C00-07601673
C000008659304201504051056088364 C00-08659304
T 0809074070562015120818144287185REAÑO RUBIÑOS EMILIA DORIS
T 0809092979972016010818144287185REAÑO RUBIÑOS EMILIA DORIS
C000005398451201501231044214375 C00-05398451
C000007674996201503051000000286 C00-07674996
C000008514288201504051000000463 C00-08514288
C000011613498201506051056088070 C00-11613498
Bagaimana cara membuatnya hanya melukis duplikat per pelanggan dalam sebuah file dan membiarkan yang bukan duplikat di file lain?
pelanggan ada di pos 23 (10 posisi)
urutkan -u -k 1,1 File.txt> result.txt
Ini mengurutkan file dengan bidang pertama
2020 dan masih menjabat, terima kasih banyak!
Bn co thể hướng dẫn cách loại bỏ các dòng trùng lặp của nhiều file teks di Linux atau Windows c không? Cũng như trường hợp của bạn, khi tôi tạo file từ iển vì tôi chia nội dung ra nên Có khá nhiều file và chắc chắn con nhiều dng trùng. Ví dụ: File 1 của tôi co 5 dòng, file 2 co 15 dòng (co 2 dòng trùng lặp với File 1. Tôi muốn co kết quả, File 1 vẫn giữ nguyên 5 dòng, File 2 thì only b 2 dòng file .
Như bạn biết co nhiều li do chúng ta ko thể gộp các file txt ó lại với nhau, vì những file teks từ iển rất là nhiều ký, chẳng hn.nhn. Hal ini dapat dilakukan dengan baik oleh Windows hơn, và chắc chắn ko thể gộp chúng bên Windows c. Hy vọng nhận c phản hồi từ bạn!