Howdy Marvin,
Machst Du es dir da nicht zu kompliziert? Bilder mit dem
gleichen MD5-Wert sind gleich,
tja, eben diese Aussage stimmt so nicht. Zwei unterschiedliche Dateien koennen von der Theory her durchaus die selbe md5sum haben (selbst fuer sha512sum gilt das noch, wenn es auch unwahrscheinlicher wird). Und ich möchte so ungern das einzige Exemplar eines Fotos löschen, weil ich mich darauf verlassen habe, dass dieser Fall bei mir nicht auftritt.
Also muss man zumindestens noch vergleichen, ob die Dateinamen identisch sind (dann ist die Wahrscheinlichkeit schon mal deutlich höher) und bei unterschiedlichen Dateinamen auch noch ein diff durchführen.
Dazu kommt, dass mein hash_files über 30000 Fotos und Videos laufen muss (die Videos teilweise GB gross), was auf dem NAS schon mal locker Stunden dauern kann (bei sha512sum +20%). Auf den lokalen Platten ist es natürlich etwas schneller.
Deswegen hab ich nach einem Tool gesucht, welches vielleicht schlau genug ist, eine eigene Datenbasis zu verwalten und nur dort neue und grossbittige Hashes zu berechnen, wenn Dateien hinzugekommen sind.
Ansonsten, wenn Du kein eigenes Skript schreiben möchtest, es
gibt dupeGuru Picture Edition
http://www.hardcoded.net/dupeguru_pe/
fslint könnte auch für dich passen
http://wiki.ubuntuusers.de/fslint
oder fdupes
http://en.wikipedia.org/wiki/Fdupes
werd ich mir bei Gelegenheit mal anschauen. Danke.
Gruss
norsemanna