02.09.2024
Wie kann die Digitale Transformation zum Erfolgsprojekt werden?
Ein Gespräch zwischen Dr. Jens Baas und Prof. Dr. Sarah Spiekermann-Hoff
Die Künstliche Intelligenz (KI) ist dabei, Leben und Arbeiten grundlegend zu verändern. Mit Chat-GPT bietet diese neue, generative KI, nicht nur großartige Möglichkeiten, sondern potenziert auch die Herausforderungen. Dr. Jens Baas, Vorstandsvorsitzender der Techniker Krankenkasse, ist Herausgeber des am 10. September erscheinenden Buches „Wissensexplosion. KI & Co für mehr Gesundheit“, das mit 45 Autoren eine Orientierung bietet. Wir veröffentlichen daraus vorab ein Gespräch zwischen Dr. Jens Baas mit der Wirtschaftsinformatikerin und Autorin Prof. Dr. Sarah Spiekermann-Hoff.
Jens Baas: Sarah, unter Deiner Leitung wurde jetzt der erste weltweite Standard zum Aufbau einer ethischen Technik entwickelt, der mittlerweile auch ein ISO STANDARD geworden ist[1]. Worum geht es da?
Sarah Spiekermann-Hoff: Das Institute of Electrical and Electronics Engineers ist die größte Organisation von Ingenieuren und Technikern weltweit. Entscheidend ist, dass das IEEE nicht nur ein Berufsverband ist, sondern auch weltweit gültige Standards und Normen herausgibt. Das IEEE will nicht nur den technischen Fortschritt befördern, sondern auch den Fortschritt der Menschheit. Deshalb haben wir in seinem Auftrag mit über 100 Expert:innen eine ethische Grundlage für die Weiterentwicklung der digitalen Technik entwickelt.
Jens Baas: …was Du in deinen Büchern „Digitale Ethik“ und „Value based Engineering“ auch beschrieben hast (Spiekermann 2023). Was sind die wichtigsten Botschaften?
Sarah Spiekermann-Hoff: Value-based Engineering (VBE) ist ein Konzept, das die Technikentwicklung vom Menschen her denkt. IT-Systeme müssen nicht nur benutzerfreundlich und getestet sein, sondern auch dem Fortschritt der Menschheit dienen. Es geht uns darum, den Ingenieuren und Technikern die sozialen und menschlichen Herausforderungen bewusst zu machen, die sich bei ihrer Arbeit stellen. Aber natürlich wollen wir auch gewährleisten, das unglaubliche Potenzial der digitalen Technik im Interesse der Menschen zu erschließen. Mit dem Standard geben wir Investoren, insbesondere auch im Bereich KI, die Möglichkeit, ihre Investitionen in technische Produkte besser und gesetzeskonformer auszurichten.
Jens Baas: „Wild West ist nun vorbei“ schreibt dazu die Süddeutsche Zeitung (Kreye 2021). Was heißt das?
Sarah Spiekermann-Hoff: Das ist in dem von Dir erwähnten Beitrag gut beschrieben: „Will man den Standard auf einen Gedanken reduzieren, geht es darum, gleich zu Beginn der Entwicklung digitaler Produkte dafür zu sorgen, dass es später keine Probleme gibt. Bisher lief es so, dass Konzerne und Start-ups digitale Produkte in Höchstgeschwindigkeit auf den Markt bringen. Facebook hatte das in seinen ersten Jahren mit seinem Motto ‚Move fast and break things‘ (Handle schnell und mach dabei etwas kaputt) auf den Punkt gebracht. So funktioniert die Digitalwirtschaft in großen Teilen immer noch. Probleme müssen dann die Zivilgesellschaft oder die Politik lösen.“
Jens Baas: Im Jahr 2023 ist mit Chat-GPT das Thema Künstliche Intelligenz (KI) zum ersten Mal in der breiten Bevölkerung richtig angekommen. Wie bewertest Du den öffentlichen Hype um das Thema?
Sarah Spiekermann-Hoff: Das Auftauchen von Chat-GPT im öffentlichen Raum war ein Wahrheitsmoment. Wahrheitsmomente sind philosophisch definiert als Momente, in denen sich das Bewusstsein und die Einordnung von Realitäten, auch von Vergangenheit und Zukunft, plötzlich fundamental verschiebt. Viele Techniker oder Science-Fiction-Romane haben immer schon vorhergesehen, dass es mal so eine Künstliche Intelligenz geben wird, mit der wir uns unterhalten können und das Gefühl haben, dass es sich dabei um einen Menschen oder um ein Lebewesen handelt. Das aber real zu erfahren, das war für mich, viele Kolleg:innen und natürlich für die breite Öffentlichkeit ein Wahrheitsmoment auf verschiedenen Ebenen. Es stellen sich dabei einerseits ganz praktische Fragen, z.B. wie sich Organisationen und Geschäftsprozesse verändern werden. Die Softwareentwicklung wurde durch Generative KI schon revolutioniert, die heute schon bei vielen Entwicklungsarbeiten von Software unterstützt wird. Vor allem fragt man sich aber, wie man sich ethisch zur künftigen Entwicklung der KI stellt. Wie verschieben sich Werte, wie verschieben sich Lebensformen? Wie verändern wir uns als Menschen?
Wir haben uns in den letzten 20, 30 Jahren daran gewöhnt, neue Technologien wie selbstverständlich in unseren Alltag zu integrieren, so wie wir irgendwann angefangen haben, bei uns in Europa Avocados zu essen, die wir vielleicht früher auch nicht zur Verfügung hatten. Das Einzige, worüber wir uns wenig Gedanken machen in der breiten Bevölkerung ist, dass das auch gefährlich sein kann. Wir machen Witze darüber, wann Chat-GPT anfängt zu halluzinieren oder Mist zu erzählen. Dahinter steckt aber eine ethische Grundsatzfrage: Diese Technologien bringen fundamental das Thema und den Wert der Wahrheit auf den Tisch.
Transformer Technologien wie Chat-GPT haben keinen Zugang zur Wahrheit
Generell gilt: Transformer Technologien wie Chat-GPT haben keinen Zugang zur Wahrheit. Sie können nicht wahr denken, sie können nur rechnen und sie können nur Wahrscheinlichkeits-Tokens, also Satzkomponenten hintereinander schachteln. Sie haben keinen Zugang zu Bedeutung. Dadurch verändert die Technik unser Verständnis von und auch unsere Erwartung an Wahrheit möglicherweise so stark, dass wir im Chaos landen.
Jens Baas: Der Fokus der Debatte ist nach meiner Wahrnehmung aber eher auf praktische Fragen gerichtet.
Sarah Spiekermann-Hoff: Das ist so. Da geht es z. B. um Copyright-Fragen, also dass KIs Dokumente aufgreifen, die unter Umständen Copyright geschützt sind. Das ist das Thema Privacy, die Verzerrung von Persönlichkeiten und Falschinformationen oder auch Nutzung von personenbezogenen Daten. Also im Management und in den Medien tendiert man dazu, solche offensichtlich und bereits bekannten Wertphänomene und Herausforderungen zu diskutieren, die auch wichtig sind und die eine Rolle spielen. Aber die wirklich großen Veränderungen und Verschiebungen von solchen Techniken so einer Technologie liegen noch mal bei Dimensionen, die wir noch gar nicht kennen.
Jens Baas: Kannst Du da mal ein Beispiel geben, was da auf uns zukommt?
Sarah Spiekermann-Hoff: Fast jeder, der Chat-GPT benutzt hat, hat die Erfahrung gemacht, dass das System nicht immer richtiger antwortet. Wie geht der Nutzer damit um? Er entscheidet sich vielleicht dafür, es trotzdem zu nutzen und findet es okay, dass das System hin und wieder mal was Falsches erzählt. Das ist eine Art Kosten-Nutzen-Abwägung, und man fängt an damit zu leben, dass es halt schon mal falsch ist. Unsere Haltung und unser Verhältnis zur Wahrheit wird verändert. Und das verändert unsere Gesellschaft.
Konkret: Wenn eine Krankenkasse auf ihrer Webseite über bestimmte Produkte informiert oder im Call Center Mitarbeitende schult, dann wird heute viel Wert auf Wahrheit und Richtigkeit gelegt. Mitarbeitende dürfen keine falschen Informationen geben. Aber mit dem Einsatz von Chat-GP und Transformer Technologien könnte man viel Geld sparen um den Preis, dass eine kleine Anzahl von Informationen falsch ist. Dann sind vielleicht nur ein Prozent der Kunden betroffen, und das ist dann ein Kollateralschaden.
Deutsche Unternehmen sind da eher vorsichtig. In den USA wird KI in vielen kritischen Bereichen von Schulen bis Gerichtsprozessen eingesetzt, zum Teil mit noch höheren Fehlerraten und enormen Kollateralschäden. Führt das zu einem Umdenken? Verzichten Unternehmen auf Investitionen in die neue Technologie? Da muss das Management großen Mut haben zu sagen, wir verzichten wegen „marginaler“ Kollateralschäden auf den Einsatz von KI.
Jens Baas: Ist auch die Frage, ob das eine kluge Entscheidung wäre. Wie jede Technik muss sie richtig eingesetzt werden.
Sarah Spiekermann-Hoff: Das ist genau der Punkt. Es gibt nicht nur schwarz oder weiß. Man muss genau hinschauen, in welchem Bereich kann ich diese Technologie einsetzen und auch wie? Was möchte ich erlauben und was nicht? Wenn ein Unternehmen die KI beispielsweise nutzt, um in einem bekannten Datensatz Information herauszusuchen und zusammenzufassen, ist daran nichts auszusetzen. Das ist ein Weg, wie man generative KI im Unternehmen einsetzen kann, die die Wahrheit sagt. Wir arbeiten an Lösungen, wie man die Technologie Werte-bewahrend nutzen kann. Man muss auch die Frage stellen, was ist denn überhaupt Wahrheit? Ein Kernproblem von allen Informationssystemen ist, dass sie sich nur auf vorhandene Daten aus der Vergangenheit beziehen können. Die Zukunft ist aber keine lineare Weiterentwicklung der Vergangenheit. Das gilt auch für den menschlichen Körper und medizinische Prognosen. Auch das Recht hat sich nur weiterentwickeln können, weil Menschen Probleme neu denken konnten. Und so entwickelte sich das Recht, während KIs das eben nicht können, weil sie nur Muster der Vergangenheit reproduzieren, die mit gewissen, meistens hohen Wahrscheinlichkeiten auftauchen.
Zukunft ist keine lineare Weiterentwicklung der Vergangenheit
Jens Baas: Die Ideen der KI-Enthusiasten gehen aber noch weiter…
Sarah Spiekermann-Hoff: Ja, sie träumen davon, dass Künstliche Intelligenzen auf Basis von historischen Daten in die Zukunft denken können und ganz außergewöhnliche Ideen haben, auf die der Mensch nicht kommt. Das Stichwort in der Szene ist „Emergent Properties“, also emergente Eigenschaften. Das muss man sich eher als Metapher, denn als technisches Konzept vorstellen. Wie das Wasser Eigenschaften hat, die sich nicht aus der chemischen Formel H2O ableiten lassen, also z.B. Bäche, Flüsse und Ozeane bilden kann, so gehen die Verfechter dieses Konzeptes davon aus, dass die KIs sich emergent entwickeln und Fähigkeiten bekommen werden, die sich aus der Technik selbst nicht erklären lassen. Das ist eher mystisch als wissenschaftlich. Das wage ich jetzt zu bezweifeln. Ich stimme Dir ja zu, dass es das Beste wäre, wenn uns die KIs auf spannende Ideen brächten und uns Dinge zeigen könnten, über die wir noch nie nachgedacht haben. Da gibt es viel Potenzial. Die Problematik ist, wie die Menschen damit umgehen. Viele halten die KI dem Menschen überlegen und vertrauen zu sehr in die Technik. Bei Mustererkennung kann das richtig sein, wir dürfen das aber nicht grundsätzlich unterstellen. Ein weit verbreiteter Irrglaube ist auch, dass die Technik neutral ist. Das kann sie nicht sein, wenn die Daten, mit denen sie gefüttert wurde, nicht neutral sind.
Außerdem: Studien haben gezeigt, dass Menschen in der Regel die Vorschläge von der KI häufig ungeprüft annehmen und das nicht nur aus gutem Glauben, sondern eben auch aufgrund von unternehmerischem Druck und Kontextverhältnissen. Dass sie sich sonst rechtfertigen müssen, warum sie denn die KI-Entscheidung nicht angenommen haben. Diese Schnittstelle zwischen Mensch und Maschine, zwischen analog und digital, das ist das große neue Forschungs- und Experimentierfeld.
Jens Baas: Das ist ein Thema, das uns in der Medizin stark beschäftigt, weil wir eine digitale Zweitmeinung als Entscheidungsunterstützung grundsätzlich begrüßen. Letztendlich muss aber der Arzt die Entscheidung treffen und die Verantwortung übernehmen. Die von Dir genannten Probleme sind bei Therapieentscheidungen grundlegend. Auf welcher Basis schafft es der Arzt, sich gegen die KI durchzusetzen und eine vom Vorschlag der KI abweichende Entscheidung zu treffen. Ist die Empfehlung der KI richtig für diesen Patienten oder nicht? Also eine ganz neue Herausforderung für die Behandlerseite, aber auch für Patient:innen. Zu einem anderen Thema: Wie bewertest Du den Vorschlag von prominenten Tech-Unternehmern und Wissenschaftlern, ein Moratorium für die Weiterentwicklung von KI zu setzen. Sollten wir eine sechsmonatige Pause einlegen, weil die Entwicklung zu rasant voranschreitet?
Sarah Spiekermann-Hoff: Also ich fand es interessant, dass ein Institut aus Oxford so eine Initiative startet, von der eigentlich jeder weiß, dass sie irrational ist. Die Branche fängt das Rennen um die nächste Nutzerschnittstelle gerade an. Ich habe das nicht ernst genommen und gleichzeitig fand ich es einen sehr guten und wichtigen Aufruf. Unterschrieben habe ich es nicht. Nicht, weil mir die Inhalte nicht gefallen, sondern weil ich dem Think Tank und den Personen, die hier dahinterstehen, nicht vertraue. Dort werden transhumanistische Ideen beforscht, also die Vorstellung, dass Künstliche Intelligenzen uns Menschen alle ersetzt und wir Menschen uns upgraden müssen.
Jens Baas: Also ein Werbegag, bei dem man sich etwas unehrlich als Moralapostel aufführt?
Sarah Spiekermann-Hoff: Leider nicht nur. Die Personen, die dahinterstecken, glauben wirklich, dass wir Menschen auch wie Computer funktionieren. Das nennt man Computeranthropologie. Also die glauben, wir sind wirklich Data Processing Machines. Das ist wissenschaftlich aber nicht haltbar.
Jens Baas: Warum brauchen wir eine ISO-zertifizierte Ethik für die IT?
Sarah Spiekermann-Hoff: Ethik fängt damit an, dass so etwas wie die systematische Manipulation am Katalysator bei Volkswagen nicht noch mal vorkommt. Wenn wir eine nachhaltige und gute Technik wollen, brauchen wir eine Unternehmenskultur, die das auch ermöglicht und fördert. Dazu gehört, dass Entwickler Zeit in Sicherheit, Datenschutz, Transparenz der Systeme, ordentliche Datenqualität usw. stecken müssen und dürfen. Aber ganz wichtig ist, dass man sich bei jedem System, das man entwickelt, die Frage stellt, welche Auswirkungen es auf die Menschen, die davon betroffen sind, die Natur, die Umwelt und die Communities hat. Und das muss man analysieren. Und dann muss man sich fragen, wo könnten hier Werte angegriffen werden oder auch Tugenden, menschliche Verhaltensweisen, die wir eigentlich schätzen, untergraben werden.
Ein Beispiel: Die Möglichkeit als Mensch, physische Freundschaften zu leben, ist ein Wert, der uns wichtig ist. Wenn Softwareentwickler das aufgrund ihrer Konfiguration systematisch untergraben, dann verhalten sie sich ethisch falsch. An der Stelle muss man dazu sagen, dass man sich in der Entwicklung von IT-Systemen heute oft einfach keine Gedanken dazu macht. Es ist nicht so, dass die Ingenieure bewusst unsere Werte angreifen und untergraben. Die Entwicklungsteams arbeiten einfach Product-Roadmaps ab. Diese Roadmaps sind getrieben aus ökonomischen Gesichtspunkten heraus: Produktivität, Effizienzgewinn, Umsatzsteigerung, aber eben nicht gebaut mit dem Ziel menschlicher Wertschöpfung.
Ich spreche dabei von individueller und sozialer Wertschöpfung, die es zu steigern, zu fördern und zu schützen gilt. Und da müssen wir hin, damit wir ethische Technik bauen können. Und das wird auch fundamental Geschäftsmodelle und die Art und Weise unseres Wirtschaftens verändern.
Ethische Technik bedeutet menschliche Wertschöpfung
Jens Baas: Wie kann man dieses Umdenken im Unternehmen implementieren?
Sarah Spiekermann-Hoff: Durch arbeiten an der Unternehmenskultur. Ohne die entsprechende Kultur und das Vorleben des Top-Managements ist das kaum möglich. Es gibt aber Seminare, die da hilfreich sind. Und ich finde, einiges lässt sich tatsächlich in Unternehmen einsetzen. Entscheidend für die ethische Fundierung ist in Technologie-Produkten beispielsweise die Designphase. Wenn man in dieser Phase in Workshops Übungen aufnimmt, in denen man sich über Nutzende, auch indirekte Nutzende sowie die Auswirkungen auf die Gesellschaft Gedanken macht, dann ist das ein Gewinn für die Unternehmen und die Gesellschaft. Der Standard, den wir entwickelt haben, gibt dazu wichtige Impulse.
Jens Baas: So kann ein Standard nicht nur regeln und begrenzen, sondern auch innovatives Denken fördern. Aber eines muss man auch sehen: Das kostet Zeit im Entwicklungsprozess.
Sarah Spiekermann-Hoff: Ja, „time to market“ ist ein wichtiger Faktor in der Entwicklung neuer Produkte. Geschwindigkeit ist aber nicht alles, und zu viel Geschwindigkeit ruiniert das Firmenimage, wie Boing mit den Problemen mangelnder Sorgfalt bei der Produktion seiner Flugzeuge leidvoll erfahren muss. So wie es im Qualitätsmanagement inzwischen unbestritten ist, dass man Qualität nicht am Ende des Produktionsprozesses in ein Produkt hineinkontrollieren kann, sondern die Qualität über den gesamten Produktionsprozess sichergestellt werden muss, muss in der Softwareentwicklung auch von Anfang an der Impact auf die Menschen mitgedacht werden.
Jens Baas: Ich habe den Vorteil, in einem Unternehmen zu arbeiten, in dem ich als CEO keinen Shareholder Value erzeugen muss. Aber trotzdem wollen wir, dass die Apps unseres Unternehmens von Kundinnen und Kunden oft genutzt werden. Das wäre nach Deiner Definition aber unethisch, weil sie davon abgehalten werden, andere Dinge zu machen, sich mit Menschen zu vernetzen, produktiv zu sein. Handeln wir deshalb unethisch?
Sarah Spiekermann-Hoff: Die entscheidende Frage ist, welche Werte priorisiere ich? Was für einen Wert möchte ich für Kund:innen schaffen oder für Bürger:innen? Was ist denen wichtig? Natürlich möchten die manchmal Zeit verbringen in so einer App, weil sie sich über bestimmte gesundheitliche Themen informieren. Da können sie dann gerne Zeit verbringen. Aber Zeit mit Unsinn zu verbringen und krampfhaft zu versuchen, die Leute auf der eigenen Plattform zu halten und dort Zeit zu verschwenden, kann kein Wert sein.
Was macht eine Social Media Plattform aus, die diesen Namen verdient? Sie sollte uns den Rat geben, dass unsere Freunde aktiv sind, sich vielleicht auf dem Sportplatz oder in einem Café treffen. Social Media soll unsere sozialen Aktivitäten fördern. Das ist die KI der Zukunft.
Social Media soll soziale Aktivitäten fördern
Jens Baas: Welches Resümee ziehen wir am Ende unseres Gesprächs?
Sarah Spiekermann-Hoff: Eine positive Botschaft: Keine Angst vor neuen Technologien. Das Leben ist zu vielfältig, um es zweidimensional in Codes erfassen zu können. Es ist unberechenbar. Das macht unsere Menschenwürde aus. Letztlich sind die gesamte Kunst und die gesamte Kultur, die Musik, die Architektur, alles, was uns ausmacht, unberechenbar. Das Leben ist schön, und wir brauchen keine Angst vor der Zukunft zu haben, wir können und müssen sie gestalten.
[1] www.iso.org/obp/ui/en/#iso:std:iso-iec-ieee:24748:-7000:ed-1:v1:en
Literatur
- IEEE Institute of Electrical and Electronics Engineers (2021) Standard Model Process for Addressing Ethical Concerns during System Design, in IEEE Std 7000-2021, 1-82. DOI: 10.1109/IEEESTD.2021.9536679
- Kreye A (2021) Wild West ist nun vorbei. Süddeutsche Zeitung vom 15.09.2021
- Spiekermann S (2023) Value-Based Engineering. A Guide to Building Ethical Technology for Humanity. DOI: 10.1515/97831107933823
Dr. Jens Baas
Vorstandsvorsitzender der Techniker Krankenkasse
Prof. Dr. Sarah Spiekermann-Hoff
Leiterin des Institutes für Wirtschaftsinformatik & Gesellschaft an der Wirtschaftsuniversität Wien (WU Wien)
Dieser Beitrag basiert auf einem Gespräch im Rahmen des Podcast TechVisite – Zukunft Digitale Gesundheit. Der Text wurde redigiert von Dr. Andreas Meusch.
„Wissensexplosion: KI & Co. für mehr Gesundheit“, Herausgeber Jens Baas, erscheint am 10. September 2024 in der Medizinisch Wissenschaftlichen Verlagsgesellschaft.
Alle politischen Analysen ansehen