Auch Google kämpft mit künstlicher Intelligenz gegen Terror

2
65
Bild: © Victoria - Fotolia.com
Bild: © Victoria - Fotolia.com

Internet-Konzerne wie Google, Facebook und Twitter stehen, unter Druck mehr gegen die Verbreitung von Terror-Propaganda im Netz zu unternehmen. Google kündigte nun eine Initiative an, die auf künstliche Intelligenz und menschliche Expertise setzt.

Nach Facebook hat auch Google angekündigt, den Kampf gegen terroristische Inhalte im Netz mit künstlicher Intelligenz zu verstärken. Der Internet-Konzern werde dafür mehr Entwickler und seine modernste Technologie bei selbstlernenden Maschinen einsetzen, kündigte Google-Chefjurist Kent Walker am Sonntag an. Gleichzeitig will Google aber auch verstärkt auf Hilfe von Experten setzen.
 
Damit sollen unter anderem bei der Videoplattform YouTube automatisch mehr Clips mit Terrorpropaganda aufgespürt werden. Auch die Zahl der Experten, die über als verdächtig markierte Videos entscheiden, werde stark erhöht, schrieb Walker in einem Beitrag in der Londoner Zeitung „Financial Times“. Google setzt dabei auf „Trusted Flagger“, das sind Einzelpersonen oder Organisationen, denen Google vertraut, wenn sie anstößige oder rechtswidrige Inhalte anzeigen. Das können auch Strafverfolgungsbehörden sein.

Walker betonte, Google, YouTube und andere Internet-Firmen arbeiteten zwar schon seit Jahren daran, solche Inhalte zu finden und zu löschen – aber „die unbequeme Wahrheit ist, dass wir als Industrie eingestehen müssen, dass noch mehr getan werden muss. Jetzt.“
 
Google setze bereits auf die Analyse von Videobildern, um Terror-Propaganda auch ohne Hinweisen von Nutzern zu entdecken, betonte Walker. Mehr als die Hälfte der gelöschten Inhalte in den vergangenen sechs Monaten sei so gefunden worden. Entwickler des Internet-Konzerns hätten auch Technologie entwickelt, die ein erneutes Hochladen bereits bekannter terroristischer Videos verhindere.
 
Auch Facebook gab vor wenigen Tagen bekannt, dass selbstlernende Maschinen stärker dafür eingesetzt werden, solche Inhalte gar nicht erst wieder auf die Plattform durchzulassen. Zudem werde an einem Algorithmus gearbeitet, der durch Textanalyse terroristische Propaganda erkennen solle.
 
Internet-Unternehmen stehen in Europa unter wachsendem Druck aus der Politik, härter gegen Terror-Inhalte vorzugehen. So erklärte die britische Premierministerin Theresa May nach dem jüngsten Attentat auf der London Bridge, Extremismus finde im Netz eine sichere Brutstätte – und die großen Internetunternehmen ließen dies zu. In Deutschland sieht ein Gesetzentwurf von Bundesjustizminister Heiko Maas (SPD) Strafen von bis zu 50 Millionen Euro vor, wenn Internet-Firmen illegale Inhalte nicht schnell genug löschen. [dpa]

Bildquelle:

  • Technik_Web_Artikelbild: © Victoria - Fotolia.com
2 Kommentare im Forum
  1. Gegen Schwachmaten die mit LKWs in Menschenmengen rasen oder mit der Axt im Zug herumhantieren wird das nix nützen.
  2. Du meinst also, diese Schwachmaten hinter dem Steuer des LKW sind ganz alleine auf die Idee gekommen, den LKW zur Waffe zu machen, und ihr eigenes Leben zu opfern... Ich glaube schon, daß es da eine Vorgeschichte der Radikalisierung und des "Programmierens" auf den Anschlag von Außen gibt. Welche Rolle und in welcher Gewichtung da soziale Medien, klassische Medien(!), Internet-Seiten ohne social-Media-Touch, direkte Kontakte in Moscheen und "Kulturvereinen", Erpressungen mit/durch Angehörige etc. spielen, sollte man dringend untersuchen...
Alle Kommentare 2 im Forum anzeigen

Kommentieren Sie den Artikel im Forum