Hallo zusammen,
ich habe eine Webanwendung entwickelt, bei denen Personen eingetragen werden.
Bspw. wird folgendes der eingetragenen Person aufgenommen: ID, Vorname,
Nachname, Adresse, Bemerkung, Profil, etc.
Jetzt ist es möglich, dass manche Personen mehrfach (zu unterschiedlicher Zeit) einge-
tragen werden. Meist sind die Daten dann identisch, ab und an gibt es auch ein paar
Abweichungen in manchen Bereichen.
In einer Liste werden mir die Duplikate angezeigt.
Aktuell gehe ich so vor, dass ich einen Datensatz in Falle eines Duplikats manuell lösche.
Jetzt suche ich aber nach einer Möglichkeit, den Arbeitsprozess zu optimieren.
Ich lösche manuell den Datensatz, der die besseren, 'ausformulierteren'
Informationen enthält - dies kann ich aktuell nur händisch machen.
Habt ihr Ideen, wie ich den Prozess optimieren kann?
Ich bräuchte ein paar Denkanstöße, da ich gerade planlos überlege, wie ich vorgehen
könnte.
ich habe eine Webanwendung entwickelt, bei denen Personen eingetragen werden.
Bspw. wird folgendes der eingetragenen Person aufgenommen: ID, Vorname,
Nachname, Adresse, Bemerkung, Profil, etc.
Jetzt ist es möglich, dass manche Personen mehrfach (zu unterschiedlicher Zeit) einge-
tragen werden. Meist sind die Daten dann identisch, ab und an gibt es auch ein paar
Abweichungen in manchen Bereichen.
In einer Liste werden mir die Duplikate angezeigt.
Aktuell gehe ich so vor, dass ich einen Datensatz in Falle eines Duplikats manuell lösche.
Jetzt suche ich aber nach einer Möglichkeit, den Arbeitsprozess zu optimieren.
Ich lösche manuell den Datensatz, der die besseren, 'ausformulierteren'
Informationen enthält - dies kann ich aktuell nur händisch machen.
Habt ihr Ideen, wie ich den Prozess optimieren kann?
Ich bräuchte ein paar Denkanstöße, da ich gerade planlos überlege, wie ich vorgehen
könnte.