Når du arbeider med store mengder media og dokumenter, er det ganske vanlig å samle flere kopier av den samme filen på datamaskinen. Uunngåelig er det som følger en rotete lagringsplass fylt med overflødige filer, noe som provoserer periodiske kontroller for dupliserte filer på systemet ditt.

For dette formål finner du forskjellige programmer for å identifisere og slette dupliserte filer. Og fdupes er tilfeldigvis et slikt program for Linux. Så følg med når vi diskuterer fdupes og veileder deg gjennom trinnene for å finne og slette dupliserte filer på Linux.

Hva er fdupes?

Fdupes er et CLI-basert program for å finne og slette dupliserte filer på Linux. Den er utgitt under MIT -lisensen på GitHub.

I sin enkleste form fungerer programmet ved å kjøre den angitte katalogen md5sum å sammenligne MD5 signaturer av filene. Deretter kjører den en byte-by-byte-sammenligning for å identifisere duplikatfilene og sikre at ingen dubletter blir utelatt.

Når fdupes identifiserer dupliserte filer, gir det deg muligheten til å enten slette dem eller erstatte dem med harde lenker (lenker til de originale filene). Så avhengig av dine krav, kan du fortsette med en operasjon deretter.

instagram viewer

Hvordan installere fdupes på Linux?

Fdupes er tilgjengelig på de fleste store Linux -distroer som Ubuntu, Arch, Fedora, etc. Basert på distroen du kjører på datamaskinen din, må du utstede kommandoene nedenfor.

På Ubuntu eller Debian-baserte systemer:

sudo apt installer fdupes

Slik installerer du fdupes på Fedora/CentOS og andre RHEL-baserte distroer:

sudo dnf installer fdupes

På Arch Linux og Manjaro:

sudo pacman -S fdupes

Hvordan bruke fdupes?

Når du har installert programmet på datamaskinen, følger du trinnene nedenfor for å finne og fjerne dupliserte filer.

Finne dupliserte filer med fdupes

La oss først begynne med å søke etter alle dupliserte filene i en katalog. Den grunnleggende syntaksen for dette er:

fdupes bane/til/katalog

For eksempel, hvis du vil finne dupliserte filer i Dokumenter katalog, vil du kjøre:

fdupes ~/Documents

Produksjon:

Hvis fdupes finner dupliserte filer i den angitte katalogen, returnerer den en liste over alle redundante filer gruppert etter sett, og du kan deretter utføre ytterligere operasjoner med dem etter behov.

Men hvis katalogen du har angitt består av underkataloger, vil ikke kommandoen ovenfor identifisere duplikater inne i dem. I slike situasjoner må du utføre et rekursivt søk for å finne alle duplikatfilene som finnes i underkatalogene.

For å utføre et rekursivt søk i fdupes, bruk -r flagg:

fdupes -r sti/til/katalog

For eksempel:

fdupes -r ~/Documents

Produksjon:

Selv om de to kommandoene ovenfor enkelt kan finne duplikatfiler i den angitte katalogen (og dens underkataloger), inneholder utdataene deres også nulllengde (eller tomme) duplikatfiler.

Selv om denne funksjonaliteten fremdeles kan komme godt med når du har for mange tomme duplikatfiler på systemet ditt, kan det introdusere forvirring når du bare vil finne ut ikke-tomme duplikater i en katalog.

Heldigvis lar fdupes deg ekskludere nulllengdefiler fra søkeresultatene ved hjelp av -n alternativet, som du kan bruke i kommandoene.

Merk: Du kan ekskludere ikke-tomme duplikatfiler i både vanlige så vel som rekursive søk.

Slik søker du bare etter ikke-tomme duplikatfiler på maskinen din:

fdupes -n ~/Documents

Produksjon:

Hvis du har å gjøre med flere sett med dupliserte filer, er det lurt å sende ut resultatene til en tekstfil for fremtidig referanse.

For å gjøre dette, kjør:

fdupes bane/til/katalog> filnavn.txt

...hvor bane/til/katalog er katalogen du vil utføre søket i.

For å søke etter dupliserte filer i Dokumenter katalogen og send deretter utgangen til en fil:

fdupes /home /Documents> output.txt

Sist men ikke minst, hvis du ønsker å se et sammendrag av all informasjon relatert til dupliserte filer i en katalog, kan du bruke -m flagg i kommandoene dine:

fdupes -m sti/til/katalog

For å få duplikatfilinformasjon for Dokumenter katalog:

fdupes -m ~/Documents

Produksjon:

Når du bruker fdupes når som helst, hvis du vil ha hjelp med en kommando eller funksjon, kan du bruke -h alternativ til få hjelp på kommandolinjen:

fdupes -h

Slette dupliserte filer i Linux med fdupes

Etter at du har identifisert duplikatfilene i en katalog, kan du fortsette med å fjerne/slette disse filene fra systemet for å fjerne rot og frigjøre lagringsplass.

For å slette en duplikatfil, spesifiser -d flagg med kommandoen og trykk Tast inn:

fdupes -d sti/til/katalog

For å fjerne dupliserte filer i Nedlastinger mappe:

fdupes -d ~/Nedlastinger

Fdupes vil nå presentere deg en liste over alle dupliserte filene i den katalogen, og gir deg muligheten til å bevare de du vil beholde på datamaskinen.

For eksempel, hvis du vil bevare den første filen i sett 1, skriver du inn 1 etter utgangen av et fdupes -søk og treffer Tast inn.

Videre kan du om nødvendig også lagre flere filforekomster i et sett med returnerte dupliserte filer. For dette må du skrive inn tallene som tilsvarer duplikatfilene i en kommadelt liste og trykke på Tast inn.

For eksempel, hvis du vil lagre filene 1, 3 og 5, må du skrive inn:

1,3,5

Hvis du vil bevare den første forekomsten av en fil i hvert sett med dupliserte filer og vil ignorere ledeteksten, kan du gjøre det ved å inkludere -N switch, som vist i følgende kommando:

fdupes -d -N sti/til/katalog

For eksempel:

fdupes -d -N ~/Documents

Slett dupliserte filer i Linux

Å organisere filer er en kjedelig oppgave i seg selv. Legg til det problemet dublettfiler forårsaker, og du ser på et par timer i tid og krefter som er bortkastet på å organisere din forstyrrede lagring.

Men takket være verktøy som fdupes, er det mye lettere og effektivt å identifisere dupliserte filer og slette dem. Og guiden ovenfor skal hjelpe deg med disse operasjonene på din Linux -maskin.

I likhet med dupliserte filer, kan dupliserte ord og gjentatte linjer i en fil også være frustrerende å håndtere og kreve at avanserte verktøy fjernes. Hvis du også står overfor slike problemer, kan du bruke uniq for å fjerne dupliserte linjer fra en tekstfil.

DelekvitringE -post
Hvordan finne dupliserte data i en Linux -tekstfil med uniq

Hvis du har en tekstfil med duplisert innhold du vil fjerne, er det på tide å lære hvordan du bruker uniq -kommandoen.

Les neste

Relaterte temaer
  • Linux
  • Filbehandling
  • Linux -kommandoer
Om forfatteren
Yash Wate (23 artikler publisert)

Yash er personalforfatter på MUO for DIY, Linux, programmering og sikkerhet. Før han fant sin lidenskap i å skrive, pleide han å utvikle seg for nettet og iOS. Du kan også finne forfatterskapet hans på TechPP, der han dekker andre vertikaler. Annet enn teknologi, liker han å snakke om astronomi, formel 1 og klokker.

Mer fra Yash Wate

Abonner på vårt nyhetsbrev

Bli med i vårt nyhetsbrev for tekniske tips, anmeldelser, gratis ebøker og eksklusive tilbud!

Klikk her for å abonnere