wissen.de
You voted 5. Total votes: 5
wissen.de Artikel

Was tun eigentlich Web-Bots – und wie gefährlich sind sie?

Sie posten in sozialen Medien, editieren Webseiten oder sammeln Daten – Web-Bots sind im Internet längst allgegenwärtig. Dennoch bemerken wir ihre Arbeit im Normalfall nicht. Aber was tun diese Algorithmen eigentlich genau? Und welchen Schaden können sie anrichten? Wir erklären, was hinter den Bots und ihren Tätigkeiten steckt und wozu wir sie brauchen.

Visualisierung von KI und Bots
Ob als Datensammler, Auskunftsdienst, Reparaturservice oder Meinungsmacher – Bots gibt es den unterschiedlichsten Ausführungen. Gemeinsam ist den meisten, dass sie im Hintergrund arbeiten.

Der Name "Bots" ist abgeleitet von der englischen Kurzform für Roboter. Dahinter steckt jedoch kein Blechmännchen, sondern einfach nur ein kleines Computerprogramm, das automatisiert und selbstständig bestimmte Aktionen ausführt.  Die meisten Web-Bots sind daher eher "dumm" und nur auf eine ganz bestimmte Aufgabe spezialisiert. Es gibt allerdings auch Web-Bots, die auf lernfähigen Algorithmen beruhen. Sie können deshalb auch komplexere Aufgaben übernehmen und auf ihre Umgebung reagieren. Inzwischen sind solche Programme schon für mehr als die Hälfte des gesamten Internet-Datenverkehrs verantwortlich -Tendenz eher steigend.

Datensammler im Netz

Jeder, der eine Suchmaschine im Netz benutzt, profitiert von Web-Bots. Denn das Durchsuchen und Auswerten von Webseiten für Google, Bing und Co leisten keine Menschen, sondern spezielle Programme. Diese kleinen Algorithmen besuchen selbstständig Webseiten, folgen Links und registrieren unter anderem durch Schlüsselwörter oder Texte, um welche Inhalte es auf dieser Seite geht. Erst durch das ständige Datensammeln solcher Webcrawler können die Suchmaschinen ihre Ergebnisse so schnell und treffend liefern.

Allerdings sammeln längst nicht alle Bots nur die Daten, die von Webseiten freiwillig preisgegeben werden. Viele sind auch im Netz unterwegs, um für Werbezwecke oder sogar Adresshändler Daten abzugreifen. So gibt es beispielsweise Bots, die gezielt E-Mail-Adressen auslesen, die im Impressum oder bei Kontaktangaben von Webseiten stehen. Die so "geernteten" E-Mail-Adressen werden dann unter anderem für die Aussendung von Spam-Mails genutzt.

Roboterhände und Computertastatur
Bots sind Computerprogramme, die weitgehend automatisch und ohne menschliche Anleitung sich wiederholende Aufgaben abarbeiten.
Wikipedia: Wenn Bots sich Fehden liefern

Doch Bots sammeln nicht nur Daten, sie übernehmen auch deutlich aktivere Aufgaben. So tragen Web-Bots dazu bei, Webseiten und Online-Shops am Laufen zu halten und zu pflegen. Allein auf Wikipedia sind mehr als 1.600 Web-Bots aktiv. Der größte Teil davon sind sogenannte Fixer-Bots: Sie beseitigen Tippfehler in den Seiten des Online-Lexikons, reparieren Links und Dateien, fügen Verweise auf fehlende Daten und Belege ein oder ergänzen fehlende Kategorien. Allein diese Programme haben auf Wikipedia bisher rund 80 Millionen Editierungen durchgeführt.

Skurril jedoch: Diese robotischen Editoren zeigen manchmal ein geradezu menschliches Verhalten. Denn wie eine Studie vor einigen Jahren ergab, liefern sich diese Bots sogar langanhaltende Fehden: Immer wieder heben sie gezielt die Editierungen eines anderen Bots auf, woraufhin dieser prompt diese Änderungen wieder rückgängig macht. Dieses Hin-und-Her der Web-Bots dauert in der deutsche Wikipedia im Schnitt 24 Wechsel, auf der englischen Wikipedia liefern sich Bots sogar mehr als 100 solcher Hick-Hacks.

Der Grund für diese eher ineffizienten "Fehden" der Web-Bots ist ihr bisher wenig geregeltes Miteinander. Die Programme sind unabhängig voneinander erstellt und in der Regel wurde den Bots nicht einprogrammiert, wie sie sich gegenüber ihren Kollegen verhalten sollen. Forscher sehen in diesem Mangel an Koordination und auch im fehlenden Wissen über das "Sozialverhalten"  der Bots ein großes Manko: "Wir neigen dazu zu vergessen, dass Koordination selbst unter kollaborativen Einzelnen meist nur durch übergeordnete Regeln erreicht werden kann“, erklärt Luciano Floridi vom Alan Turing Institute in London. Das gelte in gleichem Maße auch für Bots. Auch für sie sei es daher nötig, übergeordnete Regeln für ihre gegenseitigen Interaktionen zu entwickeln.

"Mächtiger" als menschliche Nutzer?

Auf Wikipedia gibt es neben den primär für die Pflege der Webseiten zuständigen Web—Bots aber auch eine Art Wachpersonal: die "Protector-Bots". Ihre Aufgabe ist es, Verstöße gegen die Regeln des Online-Lexikons zu detektieren, aber auch, böswillige Veränderungen oder Löschungen von Inhalten aufzuspüren und rückgängig zu machen. Dies soll verhindern, dass beispielsweise Werbung in den Einträgen platziert wird oder Personen missliebige Fakten über sich unterdrücken. "Ein solcher Bot kann einen möglichen Vandalismus innerhalb von Sekunden identifizieren und rückgängig machen", erklärt Jeffrey Nickerson vom Stevens Institute of Technology.

Er und sein Team haben Rollen und Rechte der Wikipedia-Bots vor kurzem näher untersucht. Dabei zeigte sich auch: In vielen Aufgabenbereichen haben die Wikipedia-Bots sogar mehr Rechte als die menschlichen Bearbeiter, wie die Forscher feststellten. So fahnden neben Protector-Bots auch Wikipedia-Mitarbeiter nach Anzeichen für Vandalismus, Spam oder Regelverstöße. Im Schnitt haben die Bots dabei jedoch um zwei Stufen höhere Zugriffsrechte als die Menschen. Ähnliches gelte für die Fixer-Bots oder die Bots, die Tags für den Artikel- oder Userstatus vergeben.

Smartphone-Screen mit Social-Media-Icons
Problematisch wird es, wenn sogenannte Social Bots echte Menschen imitieren. Sie nutzen zum Beispiel Fake-Accounts, um auf Facebook, Instagram oder Twitter Themen und Meinungen zu verbreiten.
Manipulateure in sozialen Netzwerken

In den letzten Jahren hat allerdings eine Art von Web-Bots für besonders heftige Diskussionen gesorgt: die in den sozialen Medien aktiven Algorithmen. Denn immer häufiger werden Tweets oder Facebook-Posts nicht mehr von Menschen lanciert, sondern von Algorithmen. Sie sind darauf spezialisiert, besonders "menschlich" klingende Posts zu erstellen, durch die gezielt bestimmte Meinungen im Netz verbreitet werden sollen.

Die oft emotionale, auf eine virale Verbreitung angelegte Form dieser Posts sorgt häufig dafür, dass solche Bot-generierten Einträge sogar häufiger und schneller geteilt werden als die menschengemachten. Die Algorithmen sind zudem so ausgefeilt, dass sie die Inhalte anderer selbständig teilen und kommentieren, sofern deren Aussagen ihrem Zweck nützlich ist. Auch an Chats menschlicher Nutzer nehmen solche Bots unerkannt teil.

Besonders bekannt wurden solche Manipulationen durch Social-Media-Bots bei der US-Wahl im Jahr 2016. Damals waren fast 20 Prozent aller Tweets zu politischen Wahlthemen von Bots generiert. Neben der Politik sind aber auch Verschwörungstheorien, Klimaskepsis und Impfkritik beliebte Tummelplätze für manipulative Bots.

Mit anderen Worten: Web-Bots sind längst ein integraler Bestandteil unsere Online-Welt. Aber viele ihrer Tätigkeiten bleiben im Verborgenen – und hinter vielem, das aussieht wie von einem Menschen geschrieben, steckt womöglich ein Computerprogramm.

NPO, 27.11.2019
You voted 5. Total votes: 5