News

Vertrauenswürdig? A.I.-Spiegel beurteilt Dich anhand Deines Aussehens

Künstliche Intelligenz soll unseren Alltag immer bequemer und smarter machen, doch ein neuer Spiegel zeigt nun auch die unschönen Seiten dieser Entwicklung auf. Als Projekt der University of Melbourne in Australien soll er vor allem eines leisten: unser Bewusstsein für die nicht ganz so netten Möglichkeiten der technischen Entwicklung stärken.

Was wäre, wenn ein Spiegel mithilfe nur eines Bildes und künstlicher Intelligenz beurteilen würde, ob Du nett, vertrauenswürdig, unsicher oder gar eine potenzielle Gefahr für die Allgemeinheit bist? Und diese Einschätzung dann auch noch mit Deinem Chef, den zuständigen Behörden oder sonst jemandem teilen würde? Keine besonders rosige Vorstellung.

A.I.-Spiegel als Schreck-Therapie

Doch genau deshalb ist der als eine Art "Schreck-Therapie" gedachte Biometric Mirror von Dr. Niels Wouters und seinem Forschungsteam perfekt dafür geeignet, eine gesunde Skepsis gegenüber den technischen Möglichkeiten von künstlicher Intelligenz aufzubauen. "Mit einer wachsenden Anzahl an A.I.-Anwendungen in unserer Gesellschaft müssen die Menschen verstärkt dafür sensibilisiert werden, was A.I. ist, was sie leisten kann, wie das alles schief laufen könnte und ob es vielleicht sogar der nächste logische Evolutionsschritt ist, den wir mit offenen Armen annehmen wollen", zitiert Digital Trends Dr. Wouters.

 Mit dieser Einschätzung hat sich der smarte Spiegel wohl nicht beliebt gemacht. fullscreen
Mit dieser Einschätzung hat sich der smarte Spiegel wohl nicht beliebt gemacht. (©Youtube/The University of Melbourne 2018)

Schöne neue Welt?

Nun sollte man Dr. Wouters nicht falsch verstehen. Gegen praktische Spielereien wie Face ID beim Smartphone und Co. hat auch der Wissenschaftler nichts einzuwenden. Das Team von der University of Melbourne möchte vielmehr auf die möglichen Schwachstellen in der sozialen Anwendbarkeit von künstlicher Intelligenz hinweisen. Immerhin wird jede noch so schlaue A.I. zunächst einmal von Menschen programmiert.

Deren persönliche Einstellungen – und Vorurteile – beeinflussen dementsprechend auch die Ergebnisse, die künstliche Intelligenzen wie der Biometric Mirror am Ende ausspucken. "Am beunruhigendsten ist möglicherweise [der Umstand], dass A.I.-Systeme Entscheidungen treffen oder Feedback auf Basis von Daten liefern könnten, egal ob diese Daten zutreffend oder vollständig sind", heißt es auf der offiziellen Projektseite der Universität.

Artikel-Themen
close
Bitte Suchbegriff eingeben