Schlau ohne Moral?

Autonome Systeme lernen durch aufwändiges Training, ethische Standards sollen dabei Fehlentwicklungen vorbeugen

Wien (AS prm, 25.06.2019)
© Fotolia 101806331 Future Technologies

© Fotolia 101806331 Future Technologies

Ist Ihnen bewusst, dass Sie Künstliche Intelligenzen trainieren? Nein? Dabei tun Sie das laufend! Jedes Mal nämlich, wenn Sie auf einer von Googles Captcha-Abfragen Straßenschilder, Pkws oder Busse identifizieren. Damit geben Sie sich nämlich nicht nur als Mensch zu erkennen, Sie trainieren damit auch eine Künstliche Intelligenz (KI) für selbstfahrende Autos, bringen also einem neuronalen Netzwerk bei, Objekte im Verkehr zu unterscheiden.

"Das Bereitstellen einer KI-Lösung ist nicht das Problem", erklärt Dr. Clara Neppel, Senior Director in der Europazentrale des Verbandes der Elektro- und Informationstechnik-Ingenieure IEEE in Wien. Egal, ob es um Deep Learning für Spracherkennungssysteme, Chat-Bots oder selbstfahrende Autos geht. "Der tatsächliche Aufwand liegt darin, sie auf eine Anwendung hin zu trainieren", erklärt Neppel. Und das übernehmen freiwillig und gerne eben auch Millionen von Internetnutzern rund um den Globus.

Dass das auch gründlich schiefgehen kann, zeigen Beispiele wie Microsofts Chat-Bot "Tay". Die lernfähige Software sollte durch Interaktion mit Nutzern auf Twitter lernen, entwickelte sich aber - als Folge entsprechender Inputs - binnen Stunden zu einem rassistischen und sexistischen Albtraum, den die Verantwortlichen schließlich vom Netz nehmen mussten.

Bei derartigen Anwendungen handelt es sich nicht um tatsächliche Intelligenz, sondern um autonome, also selbstlernende Systeme. Ereignisse wie jene mit "Tay", aber auch die potentielle Gefährdung von Menschen durch selbstfahrende Autos oder Entwicklungen wie die in China eingesetzten Social Scores, werfen Fragen nach ethischen Richtlinien für den Entwurf und Einsatz der entsprechenden technischen Lösungen auf.

Ethik schon im Entwurf

IEEE beschäftigt sich mit der Entwicklung entsprechender Standards für automatische Systeme. "Unter dem Begriff 'Ethically Aligned Design' berücksichtigen wir die ethische Dimension schon beim Entwurf. Unser Expertenpool aus rund 3.000 Expertinnen und Experten speist sich aus unterschiedlichsten Disziplinen -Techniker und Philosophen zählen ebenso dazu wie Ethiker und Politiker", erklärt Clara Neppel.

Zum Thema wurde bereits ein Set an Standards initiiert, erste Veröffentlichungen sind für Anfang 2020 geplant. Darüber hinaus wird auch ein entsprechendes Zertifizierungsprogramm entwickelt, das sich unter anderem mit der Frage der Transparenz beschäftigt.

Viele Chancen durch smarte Technologie

Mit Ethik und Künstlicher Intelligenz beschäftigt sich auch Christopher Frauenberger von der Research Group of Human Computer Interaction der TU Wien. In seiner Keynote beim 3. IoT-Fachkongress am 23. Oktober 2019 wird er auf die Akzeptanz smarter Technologien in der Gesellschaft eingehen.

Er ist davon überzeugt, dass für eine hohe Akzeptanz neuer technologischer KI-Entwicklungen Menschen die Möglichkeit haben müssen, "bei der Gestaltung von Technologie mitreden zu können", denn: "Menschen haben immer das Recht und Bedürfnis, ihre Lebensumstände mitzubestimmen. Durch das Internet der Dinge wird der Verhandlungsraum verschoben. Doch genau diese Räume müssen offenbleiben", so Frauenberger abschließend.

3. IoT-Fachkongress 2019

Mit Standards in die Zukunft - gemeinsame Innovation im Zeitalter der Digitalisierung
23. Oktober 2019
Austrian Standards, Wien
Informationen und Anmeldung: www.austrian-standards.at/iot

Medienkontakt

Cornelia Mayer

Haben Sie noch weitere Fragen zu diesem Thema?

Wir freuen uns auf Ihre Kontaktaufnahme.

Cornelia Mayer

Head of Public Relations
+43 1 213 00-707 +43 1 213 00-327