Auslesen von Benutzern einer Webseite- legal?

goblingift

Lieutenant
Registriert
Juli 2006
Beiträge
754
Hallo zusammen,

ich wollte fragen ob das auslesen und speichern von Benutzerdaten (Öffentlich zugängliche Benutzerdaten, wie z.b. Benutzername & Ort und Profilbild oder so) von Webseiten legal ist?

Es gibt ja auch die Google Roboter, welche alle Webseiten im Netz durchforsten und für Suchergebnisse speichern- wäre dies auch legal, wenn man z.B. mit einem Skript sich alle Benutzer einer Webseite in einer Textdatei oder eigenen Datenbank speichert? Also wenn die Webseite die Benutzerliste öffentlich zugänglich zur Verfügung stellt (Ohne vorherige Anmeldung)?

Oder lastet man damit die Server durch die tausenden Seitenzugriffe zu sehr aus, was Schaden anrichtet und somit illegal oder sogar als Hacking gilt?

Hatten es darüber letztens in der Schule- deshalb frage ich :rolleyes:
 
Mal davon abgesehn, dass das nicht besonders nett ist, rechtlich geht das in Ordnung, solange die Informationen öffentlich zugänglich sind.
Darüber hinaus gibt es natürlich noch unser Datenschutzgesetz und Copyrights, was heißt du darfst persönliche Informationen wie Name, Adresse usw. nicht ohne Zustimmung desjenigen speichern. Fremden contend zu veröffentlichen ist ebenfals ein verstoß gegen das Urheberrecht und kann hässliche Konsequenzen nach sich ziehen (Prominenter Fall war ja Mark Zuckerberg (Facebook, CEO), der einen Crawler für die das Studentinnen Verzeichnis gebaut hat, um Frauen zu bewerten).

Und es gibt noch AGBs, die das Verbieten, aber inwieweit die allerdings rechtskräftig sind, muss dir ein Anwalt sagen.

Aber vom Prinzip ist es durchaus Legal, machen z.b. viele Suchportale (Autos, Immobilien, usw.) und die Anbieter machen mit, weil sie ihre Reichweite erhöhen wollen. Nur veröffentlichen darfst du nicht alles, vorallem keine Personenbezogenen daten, es sei denn, die webseite hat in ihren AGBs das sie daten an Partner weitergeben darf und du Partner der Seite bist.

Ich mache das übrigens sogar selber, ich habe ein Pyton Script am laufen, welches in die Webseite der IMDB Crawlt und nachschaut welches gerade die Aktuellen Kinocharts sind, Top 100 Filme aller Zeiten, Bluray Realse Dates usw. und mir die Daten per Mail weiterleitet, da ich ein große film fan bin ;-)
 
Zuletzt bearbeitet:
Also wenn die Webseite die Benutzerliste öffentlich zugänglich zur Verfügung stellt

Alleine da hättest du schon ne fette Sache wegen Datenschutz am Hals.
Die User haben dir (wenn du nicht der Betreiber bist und dich mit entsprechenden - vom Nutzer akzeptierten - Klauseln abgesichert hast) kein Einverständnis dazu erteilt. -> Dicke Klage an der Backe.

Abgesehen davon kommt es darauf an was der Betreiber der Webseite sagt.
Du kannst z.B. davon ausgehen, dass es durchaus Urheberrechtlich geschützte Bilder auf Webseiten gibt.
Kopierst du diese und machst sie wieder zugänglich begehst du eine Straftat.
(Stichpunkt AGBs, aber das sollte jemand Fachkundiges(!) prüfen...)

Oder lastet man damit die Server durch die tausenden Seitenzugriffe zu sehr aus

Wenn der Server richtig konfiguriert ist, kommst du gar nicht auf tausend Zugriffe, da wirst du vorher gesperrt :)

Wenn du aber jetzt nur indizierst und später zu entsprechenden Anfragen einen Link zur entsprechenden Seite präsentierst, sollte das OK sein.
 
Nuck_Chorris schrieb:
Alleine da hättest du schon ne fette Sache wegen Datenschutz am Hals.
Die User haben dir (wenn du nicht der Betreiber bist und dich mit entsprechenden - vom Nutzer akzeptierten - Klauseln abgesichert hast) kein Einverständnis dazu erteilt. -> Dicke Klage an der Backe.

In den Nutzungsbedingungen vieler Seiten steht aber drin, dass die Informationen öffentlich zugänglich sind und z.B. von Suchmaschinen ausgelesen werden können. Warum sollte man dann ne Klage an der Backe haben, wenn man nur das gleiche wie Google tut?

Außerdem rede ich hier ja garnicht davon, die ausgelesenen Informationen/Bilder öffentlich zugänglich zu machen- ähnlich wie jan4321 würde ich sie nur zum Eigengebrauch nutzen.
 
OnlineGamerXD schrieb:
In den Nutzungsbedingungen vieler Seiten steht aber drin, dass die Informationen öffentlich zugänglich sind und z.B. von Suchmaschinen ausgelesen werden können. Warum sollte man dann ne Klage an der Backe haben, wenn man nur das gleiche wie Google tut?
Weil dies vom Anbieter Dritten meist untersagt wird. Sie erlauben es quasi nur gewünschten Suchmaschinen.

Die haben ein Interesse daran, bei Google zu landen, wegen der Reichweitenvergrößerung und Werbeeffekt. Aber kein Interesse Serverlast durch Dritte abzustützen, wovon sie dann nix haben.
 
Solange du keine Exploits verwendest sondern wirklich nur crawlst spricht nichts dagegen, sofern du die Seite nicht mit übermäßigem Traffic lahm legst. Du machst nur das was jeder User mit Zeit, Stift und Papier auch machen könnte.

Die AGB interessieren dich nicht, du gehst keinen Vertag mit irgendjemandem ein der dich zwingt die AGB zu akzeptieren.
Datenschutz ist ebenfalls nicht dein Problem sondern das des Seitenbetreibers, den er nimmt ja die Daten der User entgegen und schließt eine Vereinbarung zum Umgang mit Daten mit dem User.
 
h00bi schrieb:
Die AGB interessieren dich nicht, du gehst keinen Vertag mit irgendjemandem ein der dich zwingt die AGB zu akzeptieren.
Wenn ich in einen Laden gehe und nichts kaufe, muss ich dennoch die Geschäftsbedingungen beachten. Es heisst ja nicht Allgemeine Vertragsbedingungen. Ebenso kann ein Anbieter sich daher rechtlich zur Wehr setzen und das Verhalten der Nutzer auf seinen Angeboten dahingehend regle,entieren, dass er bestimmte Nutzungsweisen generell ausschliesst.
Datenschutz ist ebenfalls nicht dein Problem sondern das des Seitenbetreibers, den er nimmt ja die Daten der User entgegen und schließt eine Vereinbarung zum Umgang mit Daten mit dem User.
Falsch, das Datenschutzgesetz definiert nicht nur die Umstände der Anbieter-User-Beziehungen, sondern auch generelle Bedingungen. Eine simple Abfragemaske oder seichter Abfrageschutz den ein Crawler umgehen kann, reicht schon aus um die Abfrage rechtlich angreifbar zu machen.
 
Zuletzt bearbeitet:
zumal du ja auch gerne wohl die Bilder der User mit kopieren willst. Da sehe ich zum einen das Urheberecht und auf der anderen Seite das Recht am eigenen Bild... das denke ich könnte eher Problematisch werden.
 
Exakt, der Nutzer der Plattform erlaubt ja durch die AGBs der Plattform der Plattform die Nutzung seiner von ihm eingestellten Bilder, aber nicht Dritten, welche diese sich durch Crawler o.ä. abholen.
 
Aber jetzt mal Butter bei den Fischen- wie soll eine Webseite merken, ob sich jemand Bilder etc. ausliest und speichert? Im Grunde genommen machen doch solch Tools nichts anderes als die URL des Bildes aufzurufen- also genau das gleiche wie ein normaler Seitenaufruf im Browser. Was dann damit geschieht- also ob man sich die Daten/Bilder abspeichert, das bekommt ein Webseiten-Hoster ja eh nicht mehr mit...

Und man kann ja genauso gut sich manuell solche Daten holen und Bilder speichern...Per rechtsklick-"Bild speichern unter" und die gelesenen Daten z.B. in einem Word-Dokument niederschreiben...
 
Zurück
Oben