För en tid sedan förklarade jag hur du hittar och tar bort dubbletter av filer från terminalen med duffTja, här ger jag dig ett visuellt verktyg som gör att du kan göra detsamma, men för vissa med mycket mer komfort.
Dupeguru
Det första är att installera applikationen, ArchLinux-användare har det enkelt; som det är i ditt liv:
yaourt -S dupeguru-se
I Ubuntu måste du lägga till PPA-förvaret för att kunna installera det, här är alla kommandon:
sudo apt-add-repository ppa: hsoft / ppa sudo apt-get update sudo apt-get install dupeguru-se
Detta räcker för att installera Dupeguru.
Nu är det bara att köra det, det visar oss följande fönster:
Där kan vi lägga till de mappar som vi vill granska, där upprepade filer kommer att sökas, till exempel kan det se ut så här:
Sedan återstår bara att klicka på knappen scan och voila, det kommer att börja granska de mappar som vi anger, här är en skärmdump av dubbla resultat:
För att ta bort dubbletter, helt enkelt från menyn Handlingar vi väljer det alternativ som passar oss bäst.
- Skicka dubbletter till papperskorgen.
- Flytta de markerade till ...
- Kopiera de valda till ...
- etc etc
DupeGuru-alternativ
Ja i Visa - »Inställningar Vi har flera alternativ som vi kan spela med, hur skanningen görs för att hitta dubbletter, hur strikt är applikationen för att avgöra om en fil är densamma som en annan, etc. etc. Här är en skärmdump av dina alternativ:
DupeGuru slutsatser
med DupeGuru-se Du kan söka efter dubbla filer i systemet, vilket kan spara oss mycket utrymme på hårddisken, men om vi vill fokusera på musik specifikt med dupeguru-vi har ett bättre alternativ, eftersom det söker med hänsyn till taggarna för sångerna och andra, liknande händer oss med bilder, för dessa har vi dupeguru-pe ... men hej, dessa andra två kommer jag att ta upp i en annan artikel 😉
För närvarande har de redan ett annat program för att söka, hitta och ta bort dubbletter av filer på sitt system.
Vilka kriterier använder du för att hitta dubbletter? Hur löser du faktumet med två identiska filer med olika namn?
Filvikt, kontrollsumma, något sådant föreställer jag mig.
I alla fall: http://www.hardcoded.net/dupeguru_pe/help/en/faq.html
Jag har läst kommentarerna i AUR och det finns en användare som säger att när de sammanställs i Manjaro (dupeguru-se-3.9.1) känner den igen det som om det vore Ubuntu…. 0_o
bevisar att det är en gerund. Tack
Det kommer att finnas ett sätt att automatisera det förra fredagen på 20 tusen duplicerade filer och jag ville bara ha en kopia. Om någon instruerar mig med ett manus.
Du kan använda duff: https://blog.desdelinux.net/encuentra-y-elimina-archivos-duplicados-en-tu-sistema-con-duff/
Och sätt sedan den automatiskt med crontab: https://blog.desdelinux.net/tag/crontab/
aah! KZKG ^ Gaara, jag älskar hur din kde ser ut! Blir det plasma 5 med syretema?
Ehm ... det är faktiskt KDE4 hahahahaha, men tack 😀
Hälsningar. Vad är proceduren för att installera den i Debian eller i LMDE2?. Tack…
$ hitta -typ f -exec md5sum '{}' ';' | sortera | uniq –all-upprepad = separera -w 33 | skär -c 35-
Källa: commandlinefu.com
Du bör också prova OnlyOne, en app som skapats i python av en av communitymedlemmarna vid UCI.
Här är länken.
http://humanos.uci.cu/2014/11/comparte-tu-software-onlyone-3-10-9-para-encontrar-y-gestionar-archivos-repetidos-esta-vez-para-windows-y-linux/
Tack för recensionen, men de här programmen som den här och Fslint, som inte har ett riktigt grafiskt gränssnitt, det vill säga med miniatyrer av filerna (dessa tabeller med fillistan kan ha kontrollerna i grafiskt läge, men de visar faktiskt endast i textläge), eftersom de har lösningar för Windows som Duplicate Cleaner, de gör dem ganska besvärliga och inte särskilt effektiva eftersom du måste öppna filerna för hand för att visuellt verifiera att det inte har funnits några fel (att det vanligtvis aldrig finns , sanningen, men någon gång dyker en upp). Finns det inget med ett riktigt grafiskt gränssnitt? Om inte är det ingen stor skillnad jämfört med att använda konsolkommandon eftersom kommentaren "msx" indikerar ett par kommentarer ovan.
Hälsningar.