News

Offener Brief: Forscher warnen vor künstlicher Intelligenz

Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) stellte auf der CeBIT 2014 den Roboter "Charlie" vor.
Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) stellte auf der CeBIT 2014 den Roboter "Charlie" vor. (©picture alliance / dpa 2015)

Nicht nur Tesla-CEO Elon Musk und Astrophysiker Stephen Hawking fürchten sich vor künstlicher Intelligenz. Viele führende Wissenschaftler und Technologieexperten beobachten die Entwicklungen auf dem Gebiet mit Argwohn. Sie unterschrieben daher einen offenen Brief, der zum rücksichtsvollen Umgang mit der KI-Forschung aufruft.

Vermutlich haben nicht alle Wissenschaftler so große Bedenken vor künstlicher Intelligenz wie Elon Musk, der erst im November 2014 vor Killer-Robotern warnte. Dennoch fordern sie dazu auf, die Forschung auf dem Gebiet mit Bedacht voranzutreiben. Es sollte stets darauf geachtet werden, dass KI-Systeme stabil seien und den Menschen Vorteile brächten, schreibt das Future of Life Institute (FLI) am Sonntag in einem offenen Brief. Mittlerweile haben viele bedeutende Persönlichkeiten online unterzeichnet, darunter Professoren des MIT und Harvard sowie Forscher bei Google, IBM und Microsoft.

Die große Angst vor einer künstlichen Intelligenz außer Kontrolle

Die Sorge, die auch den theoretischen Physiker Stephen Hawking umtreibt: Ab einem gewissen Punkt könnte sich künstliche Intelligenz vom Menschen unabhängig machen und sich exponentiell weiterentwickeln. Der Mensch hätte dann keine Kontrolle mehr über die Maschinen. Demgegenüber stehen die möglichen Vorteile, die eine KI der Menschheit bringen könnte. "Ein erfolgreiches Streben nach künstlicher Intelligenz hat das Potenzial, der Menschheit bisher beispiellosen Nutzen zu bringen, und es ist deshalb erstrebenswert herauszufinden, wie dieser Nutzen maximiert und die potenziellen Fallgruben umgangen werden können", zitiert CNET aus der Zusammenfassung des offenen Briefes.

Die potenziellen Gefahren werden in einem Forschungsdokument näher erläutert, das dem Brief angehängt ist. Zu den Bereichen, in denen diese Fallgruben schon heute zu beachten sind, zählen beispielsweise die Forschung zu autonom fahrenden Autos oder automatischen Waffensystemen. Dabei gilt es, langfristige Perspektiven zu entwickeln und die Gefahren dabei nicht außer Acht zu lassen – bevor es zu spät ist.

Artikel-Themen

Weitere Artikel zum Thema

close
Bitte Suchbegriff eingeben