Künstliche Intelligenz braucht soziale Kompetenzen

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Roboter, die gegeneinander Fußball spielen oder selbst den Schachweltmeister mühelos besiegen können – die Wissenschaft beschäftigt sich seit vielen Jahren damit, den Intellekt des Menschen künstlich nachzubauen. Was in den 1960er Jahren pure Fiktion war, ist mittlerweile Wirklichkeit geworden. Sascha Puljic, Vice President Central Europe bei Teradata, erläutert, inwieweit man ethische Überlegungen in die Programmierung von Algorithmen einbeziehen sollte.

teradata_sascha_puljic_1-1

Roboter, die gegeneinander Fußball spielen oder selbst den Schachweltmeister mühelos besiegen können – die Wissenschaft beschäftigt sich seit vielen Jahren damit, den Intellekt des Menschen künstlich nachzubauen. Was in den 1960er Jahren pure Fiktion war, ist mittlerweile Wirklichkeit geworden. Sascha Puljic, Vice President Central Europe bei Teradata, erläutert, inwieweit man ethische Überlegungen in die Programmierung von Algorithmen einbeziehen sollte.

Zu Beginn der KI-Forschung wurden Maschinen entwickelt, die menschliches Handeln nachahmen sollten. Mittlerweile weiß man, dass es schwierig ist, “denkende” Roboter zu bauen, ohne das menschliche Denken an sich komplett zu verstehen. Das führt dazu, dass die Entwicklung von künstlicher Intelligenz nun neben IT auch die Bereiche Neurologie, Psychologie und sogar Philosophie umfasst. Um den ethischen Ansprüchen unserer Gesellschaft gerecht werden zu können, muss Ethik in die DNA aller selbstlernenden Algorithmen programmiert werden. 

Verzicht auf Sinn im Tausch gegen Macht

Der Historiker Yuval Noah Hariri entwirft in seinem Buch „Homo Deus“ eine düstere Zukunftsvision. Gefüttert durch die grenzenlosen Datenmassen des Internets erweitern Algorithmen ihre Expertise ins Unendliche. Durch diese Anhäufung von datenbasiertem Wissen sei es schon bald möglich, dass Roboter ganze Unternehmen leiten oder sogar Staaten regieren würden. Für die Weiterentwicklung der Algorithmen seien nur wenige Programmierer von Nöten, sodass für den durchschnittlichen Homo Sapiens eigentlich kein Platz mehr in der Welt sei.

Der neu geschaffene „Dataismus“ löse die bestehenden Glaubenssysteme des Individualismus, der menschlichen Seele sowie den freien Willen des Individuums ab. Der technologische Fortschritt ist für Hariri nicht Segen, sondern Fluch für die Menschheit. Der Tesla-Gründer Elon Musk geht sogar noch einen Schritt weiter: Der Mensch müsse sich seiner Meinung nach langfristig zum Cyborg aufrüsten, um der künstlichen Umgebungsintelligenz standhalten zu können. Vermutlich aus diesem Grund investiert Musk in ein Startup im Silicon Valley, das sich mit der Entwicklung von Hirnimplantaten beschäftigt, die zum Ziel haben, irgendwann mit Computern vernetzt werden zu können.

Die umstrittene Macht der Algorithmen

Im Zeitalter der Automatisierung nutzt der Mensch Algorithmen, um komplexe Entscheidungen zu treffen, die auf einem für den Menschen nicht-fassbaren Datensatz beruhen. Im Bereich des Autonomen Fahrens oder der Medizin werden innerhalb kürzester Zeit kritische Entscheidungsbereiche von Maschinen geführt, die teils fragwürdige Ergebnisse zutage fördern. Auf deren nüchterner Logik basierend und jegliche Menschlichkeit ausklammernd, mögen diese sogar empirisch gesehen richtig sein.

Allerdings stellt sich die Frage, wie mit automatisch generierten Entscheidungen umgegangen wird, wenn es beispielsweise um Leben und Tod geht; und wie sichergestellt wird, dass Gesetze, ethische und moralische Standards, eingehalten werden. Eine alte IT-Weisheit besagt: “A fool with a tool is still a fool”. Ohne ethische Standards wird Künstliche Intelligenz sozusagen ein “Tool für Fools” bleiben – und darüber hinaus sogar einen Rückschritt für die Humanität bedeuten.

Verantwortbare KI muss ethische Kriterien erfüllen

Um die Vorteile von Künstlicher Intelligenz verantwortungsbewusst nutzen zu können, müssen Programmierer und Technologieanbieter sicherstellen, dass die Entscheidungswege des Algorithmus nachvollziehbar sind. Nur vollständige Transparenz bietet Manipulationssicherheit, Vorhersagbarkeit – und vor allem Vertrauen. Wenn selbstlernende und selbsturteilende Technologien in Wirtschaft, Industrie und staatlichen Institutionen eingesetzt werden, müssen sie sich an denselben Maßstäben messen lassen wie ihr menschliches Pendant. Nur so können wir sicherstellen, dass der Segen von Künstlicher Intelligenz größer ist als sein Fluch. (sg)

Über den Autor: Sascha Puljic ist Vice President Central Europe bei Teradata, einem Anbieter von Data-Analytics-Lösungen.

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
E-Mail
Share on print
Drucken
Werbung
Werbung

Redaktionsbrief

Tragen Sie sich zu unserem Redaktionsbrief ein, um auf dem Laufenden zu bleiben.

Werbung
Werbung

Aktuelle Ausgabe

Topthema: Internet of Things

Mit Vernetzung zum effektiven Eco-System

Mehr erfahren

Entdecken Sie weitere Magazine

Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.