die-Bibel.de

Digitalisierung

Andere Schreibweise: digitalization (US); digitalisation (UK)

(erstellt: Februar 2022)

Permanenter Link zum Artikel: https://bibelwissenschaft.de/stichwort/201032/

1. Künstliche Intelligenz

Künstlich intelligente Systeme sind technische Systeme, die bestimmt durch die in ihnen implementierten Algorithmen ihren Zweck auf eine Art und Weise erfüllen, die in vielen Einsatzbereichen die Leistungsfähigkeit des Menschen bei Weitem übertrifft (siehe auch → Künstliche Intelligenz). Die Forschung im Bereich der künstlichen Intelligenz entwickelt Expertensysteme, künstlich neuronale Netzwerke und KI-Agenten, die es der KI ermöglichen, anhand ihrer Datenbasis zu lernen, Schlussfolgerungen für das effiziente Lösen von Problemen zu generieren und Maschinen in der Lebenswelt des Menschen zu steuern (embodied KI). Mit Hilfe von KI-Systemen ist es möglich, die individuelle und gesellschaftliche Lebenswelt des Menschen auf eine Art und Weise zu gestalten, die weit über die Möglichkeiten bisheriger Technologien hinausgeht: “After more than five decades of research, the field of AI is poised to transform the way we live, work, socialize, and even how we regard our place in the universe” (Kaplan, 2016, xi; siehe auch Ramge, 2018, 21). Im Folgenden wird zunächst der Begriff der Digitalisierung spezifiziert (2.) bevor einige ausgewählte Probleme und Chancen der Digitalisierung für das individuelle und gesellschaftliche Leben skizziert werden (3.). Abschließend wird auf einige spezifisch philosophische Fragestellungen zum Wesen künstlich intelligenter Systeme eingegangen (4.).

2. Der Begriff der Digitalisierung

Basierend auf dem skizzierten Begriff künstlicher Intelligenz kann der Begriff der Digitalisierung wie folgt geklärt werden: Der Prozess der Digitalisierung bezeichnet den Prozess der zunehmenden Repräsentation der Lebenswelt des Menschen in maschinenlesbarer Sprache, also die Umwandlung analoger in digitale Daten, damit diese Daten als Input für spezifische Algorithmen verwendet werden können, die je nach KI-System zu einem bestimmten Resultat gelangen. Solange die Daten maschinenlesbar sind, ist die Datenbasis dabei beliebig bestimmbar. Da der Lebenswelt des Menschen zu großen Teilen eine physikalisch messbare Wirklichkeit zugrunde liegt, kann der Prozess der Digitalisierung daher prinzipiell in allen Bereichen des individuellen und gesellschaftlichen Lebens des Menschen, die über sensorisch erfassbare und digitalisierbare Komponenten verfügen, vollzogen werden: „Prinzipiell bedeutet ‚Digitalisierung‘ die binäre Repräsentation von Texten, Bildern, Tönen, Filmen sowie Eigenschaften physischer Objekte in Form von aneinandergereihten Sequenzen aus ‚1‘ und ‚0‘, die von heutigen Computern mit extrem hoher Geschwindigkeit [...] verarbeitet werden können“ (Hippmann/Klingner/Leis, 2018, 9; siehe auch Zimmerli, 2020, 19).

Ein wesentliches, aber häufig übersehenes Merkmal der Digitalisierung besteht darin, dass sie aufgrund der physikalisch reglementierten sensorischen Erfassung der gewählten physikalisch messbaren Eigenschaften der Wirklichkeit nur zu einem maschinenlesbaren Modell der Lebenswelt des Menschen führen kann: Ein Modell ist immer eine strukturelle und heuristische Vereinfachung dessen, wovon es Modell ist. Daher wird auch die Digitalisierung der Lebenswelt des Menschen nur zu einem maschinenlesbaren Konstrukt dieser Lebenswelt führen, welches, wie jedes Modell, zwar in einigen strukturellen und inhaltlichen Bereichen mit dem, wovon es Modell ist, übereinstimmt, aber andere Eigenschaften dessen, wovon es Modell ist, nicht erfassen kann. Der Prozess der Digitalisierung impliziert daher in all seinen Formen die Gefahr, dass die digitalen Modelle mit der Lebenswelt des Menschen, dessen Modelle sie sind, verwechselt werden, und diejenigen Aspekte, die in einem digitalen Modell nicht repräsentiert werden können, nicht länger als relevant für das individuelle und gesellschaftliche Leben angesehen werden.

Der Prozess der Digitalisierung führt zu einer wachsenden Integrierung der Maschinenwelt und der für sie notwendigen digitalen Infrastruktur in die analoge Lebenswelt der Menschen und damit zu einer Verschmelzung der digitalen mit der analogen Welt, die systemisch nicht nur mit sich bringt, dass KI-Systeme so konstruiert werden, dass sie möglichst reibungslos in die analoge Lebenswelt des Menschen integriert werden können (Wallach/Asaro, 2017, 23; Misselhorn, 2018, 11; Brand, 2018), sondern auch, dass die Lebenswelt des Menschen sich zunehmend an die Bedingungen digitaler Technologie anpasst, damit die Möglichkeiten von KI-Systemen hinreichend genutzt werden können. Der Prozess der Digitalisierung ist daher nicht nur eine modellierte Repräsentation der Lebenswelt des Menschen in maschinenlesbarer Sprache, sondern bringt auch eine Umgestaltung der Lebenswelt des Menschen mit dem Ziel ihrer Maschinenlesbarkeit mit sich. Analog zu früheren technologischen Umgestaltungen der Lebenswelt des Menschen ist daher auch in Bezug auf den Prozess der Digitalisierung eine Transformation des individuellen und gesellschaftlichen Lebens zu beobachten, die bereits seit ihren Anfängen in den 2000er-Jahren zu wesentlichen Veränderungen gesellschaftlicher Prozesse geführt hat und das individuelle und gesellschaftliche Leben zukünftiger Generationen weiterhin massiv beeinflussen wird: „Frühere Revolutionen zur Schaffung von Wohlstand, insbesondere in der Landwirtschaft und Industrie, haben zu makroskopischen Veränderungen unserer gesellschaftlichen und politischen Strukturen [...] geführt, häufig, ohne große Vorausschau und normalerweise mit tiefgreifenden begrifflichen und ethischen Konsequenzen. Die informationelle Revolution [...] ist nicht weniger dramatisch. Wir handeln uns ernsthafte Probleme ein, wenn wir die Tatsache, dass wir neue Umgebungen aufbauen, die von künftigen Generationen bewohnt werden, nicht ernst nehmen“ (Floridi, 2017, 25).

3. Chancen und Probleme der Digitalisierung

Der Prozess der Digitalisierung samt der durch ihn befeuerten Umgestaltung des individuellen und gesellschaftlichen Lebens bringt sowohl Chancen als auch Probleme mit sich, die aus geisteswissenschaftlicher Perspektive reflektiert werden müssen, damit der Prozess der Digitalisierung aus gesamtgesellschaftlicher Perspektive verantwortet gesteuert werden kann. Wie Alpaydin (2016, 165) es formuliert: “The challenge is to make sure that this new source of intelligence is used for good and not for bad, to increase the well-being of people, and for the benefit of humanity rather than to increase the profit of a few.” Da KI-Systeme eine vom Menschen entwickelte Technologie sind und gemäß der These der Wertneutralität von Technologie nur der konkrete Gebrauch von KI-Systemen für bestimmte Zwecke einen spezifisch moralischen oder politischen Wert hat, folgt, dass die entscheidenden Fragen der geisteswissenschaftlichen Reflexion der Digitalisierung die Folgenden sind: In welchen Bereichen des individuellen und gesellschaftlichen Lebens können künstlich intelligente Systeme wertschöpfend eingesetzt werden? Wo sind die ethischen Grenzen und Gefahren der Digitalisierung zu verorten? (Pitt, 2010; Pitt, 2014). Da eine vollständige Analyse der Probleme und Chancen der Digitalisierung für jeden Bereich des individuellen und gesellschaftlichen Lebens den hier zur Verfügung stehenden Rahmen übersteigen würde, werden im Folgenden exemplarisch nur einige wesentliche Probleme und Chancen der Digitalisierung für das individuelle und gesellschaftliche Leben genannt.

3.1. Chancen der Digitalisierung

Die Chancen der Digitalisierung sind dort gegeben, wo KI-Systeme wertschöpfend eingesetzt werden können. Der Begriff des Wertes wird dabei wie folgt definiert: „A value is anything that serves as a basis for discriminating between different states of affairs and ranking some of them higher than others with respect to how much they are desired or cared about or how the personal, social, or cosmic order ought to be” (Miller, 2020, 7). Basierend auf dieser Definition ist ein wertschöpfender Einsatz von KI-Systemen eine Verwendung künstlicher Intelligenz, durch die ein Sachverhalt in der Welt verwirklicht wird, dem im Vergleich zu seinem Nichtbestehen ein positiver individueller, gesellschaftlicher oder kosmischer Wert zugesprochen wird. Da es aus philosophischer Perspektive strittig ist, ob es allgemeinverbindliche individuelle, gesellschaftliche und kosmische Werte gibt und gute Argumente sowohl für als auch gegen die Existenz objektiver Werte sprechen (Kutschera, 1999), verwundert es nicht, dass auch die philosophische Debatte über den wertschöpfenden Einsatz künstlich intelligenter Systeme nicht unisono geführt wird, sondern je nach den zugrunde gelegten individuellen, gesellschaftlichen und kosmischen Werten ganz unterschiedliche Zielvorstellungen über den Einsatz künstlicher Intelligenz zur Gestaltung des individuellen und gesellschaftlichen Lebens vorgetragen werden.

Trotz der unterschiedlichen Einschätzungen darüber, was genau mit dem Prozess der Digitalisierung erreicht werden soll, lassen sich aber sowohl auf der individuellen als auch auf der gesellschaftlichen Ebene Verwendungen künstlich intelligenter Systeme identifizieren, die in der Regel als potentiell wertschöpfend eingeschätzt werden, da sie zur Verwirklichung eines für den Menschen guten Lebens beitragen: „[D]er Gebrauch von Techniken [war] in der Regel im menschlichen Interesse [...] und deshalb [ist] davon auszugehen [...], dass dies auch in Zukunft der Fall sein wird, und dass der angemessene Einsatz von Techniken auch die Wahrscheinlichkeit erhöht, die Grenzen des Menschseins zu erweitern, was in unserem Interesse wäre, da auf diese Weise auch die Wahrscheinlichkeit, ein gutes Leben zu führen, gefördert wird“ (Sorgner, 2016, 9f.).

Obwohl es zahlreiche Überschneidungen und Wechselwirkungen zwischen den individuellen und gesellschaftlichen Einsatzmöglichkeiten von KI-Systemen gibt, können tendenziell individuelle und tendenziell gesellschaftliche Potentiale cum grano salis unterschieden werden (Jaume-Palasí, 2020; Brynjolfsson/McAfee, 2019).

Konkret ist die potentiell wertschöpfende Integration von KI-Systemen in die individuelle Lebenswirklichkeit des Menschen beispielsweise dort zu verorten, wo ihr Einsatz den Menschen entlasten und ihm Aufgaben abnehmen kann, die ohne den Einsatz von KI seine begrenzten zeitlichen oder körperlichen wie geistigen Ressourcen belasten würden: KI-Systeme können beispielsweise wichtige Aufgaben der Haushaltsführung übernehmen, wie den Einkauf zu organisieren (Internet der Dinge), die Haustechnik effizient und ökologisch zu steuern oder den Rasen zu mähen. Darüber hinaus können sie die Freizeitgestaltung durch das aufgrund der eigenen Vorlieben automatisierte Generieren von musikalischen oder filmischen Playlists sowie Newsfeeds bereichern (Spotify, Siri, Alexa) und je nach Plattform das soziale Leben erweitern, indem sie dem Menschen anhand digital erfasster Charaktermerkmale bei der Freundschafts- und Partnerschaftssuche helfen (Parship, Tinder etc.). Gerade durch die sozialen Plattformen (Facebook, Instagram, TikTok) und MMOGs (Massively Multiplayer Online Games) wie World of Warcraft tragen KI-Systeme zu einer Erweiterung der sozialen Kontakte bei und überschreiten die lokalen Begrenzungen der individuellen Kontakte hin zu einer global vernetzten Menschheit, die sich gemeinsamen Interessen widmen und darin Synergieeffekte erzielen kann. Die durch KI ermöglichte Verfügbarkeit von Informationen ermöglicht darüber hinaus nicht nur, dass jedes Individuum unabhängig seines Aufenthaltsortes prinzipiell Zugriff auf digitale Informationen nehmen kann, sondern auch, dass gemeinsame wirtschaftliche, wissenschaftliche oder politische Projekte effizient durchgeführt werden können (Zoom, Microsoft Teams etc.).

Neben der Gestaltung der Haushaltsführung, der Freizeit und der Kommunikation des Menschen können KI-Systeme auch wertschöpfend im Gesundheitssektor eingesetzt werden: Durch die sensorische Erfassung individueller Gesundheitsdaten (Herzfrequenz, Bewegungsprofil, Kalorienverbrauch etc.) mittels verschiedener Fitness-Tracker (Apple-Watch etc.) sind KI-Systeme in der Lage, Aussagen über den individuellen Gesundheitszustand zu treffen und können bereits Anzeichen von Herzrhythmusstörungen erkennen, den Insulin-Haushalt des Körpers regulieren, oder einen Sturz des Individuums erfassen, um automatisiert einen Notarzt zu kontaktieren (Hahn/Schreiber, 2018). Darüber hinaus hat es die KI-Forschung im Verbund mit der synthetischen Biologie bewerkstelligt, Gehörlosen durch KI-gesteuerte Cochlea-Implantate das Hören zu ermöglichen, und derzeit werden Methoden erforscht, die dazu beitragen, dass Menschen mit Paraplegie mittels KI-gesteuerter Übertragung neuronaler Impulse sowohl Roboter steuern können als auch ihren Körper wieder eigenständig bewegen können (Aach, 2014).

Insgesamt kann das wertschöpfende Potential des Einsatzes von KI-Systemen im individuellen Alltag primär darin verortet werden, dass KI-Systeme nicht nur zu einer Entlastung der zeitlichen, körperlichen und geistigen Ressourcen des Individuums, zu einer optimierten Freizeitgestaltung entsprechend der Vorlieben des Individuums, gesteigertem sozialen Austausch auf globaler Ebene, sondern auch zu einer größeren Kontrolle über den eigenen Gesundheitszustand und in Fällen technologischer Implantate zu größerer körperlicher Integrität führen.

Analog dem individuellen Bereich menschlichen Lebens besteht das wertschöpfende Potential des Einsatzes von KI auf gesellschaftlicher Ebene zunächst auch darin, dass künstlich intelligente Systeme hier Aufgaben und Arbeiten übernehmen können, die in einer funktional ausdifferenzierten Gesellschaft bisher von Menschen übernommen werden mussten und dessen zeitliche, körperliche und geistige Ressourcen gebunden haben: Da lernfähige KI-Systeme in der Lage sind, jede Aufgabe automatisiert zu erledigen, die sich in operationalisierbare und damit berechenbare Arbeitsschritte unterteilen lässt, folgt, dass künstliche Intelligenz, sei es in der Form von embodied oder disembodied KI, das Potential hat, wohl die meisten Arbeiten und Tätigkeiten, die bisher vom Menschen erledigt werden mussten, effizienter und besser durchzuführen als der Mensch es könnte. Der Prozess der Digitalisierung verfügt somit über das Potential, nicht nur den Arbeitsmarkt, sondern auch die an den Arbeitsmarkt gekoppelten gesellschaftlichen Strukturen radikal zu verändern, da die meisten Arbeiten prinzipiell an künstlich intelligente Systeme ausgelagert werden können: „In practice, automation replaces skills, not jobs, and correspondingly, what employers need is not workers but the result obtained by applying those skills. To be successful, makers of robots don’t have to replace people; they have to provide machines with the requisite skills to perform useful tasks. […] From an economic standpoint, AI technology is just another advance in automation“ (Kaplan, 2016, 114f.). Der wertschöpfende Aspekt der KI-gesteuerten Automatisierung besteht hier nicht nur darin, dass analog zum Einsatz von KI im individuellen Bereich Ressourcen für die individuellen Interessen der Menschen freigesetzt werden, sondern auch darin, dass Arbeiten, die sich durch große Monotonie, durch ein hohes Risiko für Schädigungen der körperlichen oder geistigen Unversehrtheit der Tätigen oder durch eine aufgrund der Datenlage vorliegenden Überforderung des Menschen auszeichnen, durch KI-Systeme übernommen werden können und dadurch das menschliche Wohlbefinden geschützt wird.

Da KI-Systeme aufgrund ihrer sensorischen Ausstattung in der Lage sind, in flexiblen Umgebungen zu operieren, ist der Einsatzbereich von Robotern und KNNs dabei nicht auf den klassischen Arbeitssektor eingeschränkt, sondern erstreckt sich auf alle Bereiche der gesellschaftlichen Organisation: Im Straßenverkehr könnte beispielsweise durch den Einsatz von KI-gesteuerten Fahrzeugen die Zahl der Verkehrstoten, denen menschliches Versagen zugrunde liegt, auf Dauer wesentlich reduziert werden. Im Energiesektor könnten die Energieströme mittels KI so geregelt werden, dass eine möglichst effiziente und optimale Auslastung des Stromnetzes erreicht wird (Hillerbrand/Milchram/Schippl, 2017). In der staatlichen Verwaltung können KI-Systeme bürokratische Prozesse optimieren. Im Bereich der Wissenschaft können KI-Systeme big data auf statistische Korrelationen überprüfen, die dann von den Wissenschaftlern und Wissenschaftlerinnen auf ihre Signifikanz und damit ihren potentiellen Erkenntnisbeitrag überprüft werden können (Michel, 2020). Darüber hinaus können KI-Systeme dazu beitragen, dass in möglichst vielen Regionen der Erde Wissen digital zur Verfügung gestellt wird (Thylstrup, 2018).

Insgesamt besteht das skizzierte wertschöpfende Potential der Digitalisierung auf gesellschaftlicher Ebene darin, dass mit Hilfe von künstlicher Intelligenz die gesellschaftliche Organisation in ihren verschiedenen Sektoren optimiert und so gestaltet werden kann, dass zum einen notwendige Arbeiten in einem noch stärkeren Maße als ohnehin seit der Industrialisierung geschehen an Maschinen ausgelagert werden können und zum anderen KI-Systeme im Bereich der wissenschaftlichen Forschung zu neuen Erkenntnissen verhelfen, mit denen auf Dauer das Wohl der gesamten Menschheit gesichert und gesteigert werden kann.

3.2. Probleme der Digitalisierung

Obwohl der Einsatz von KI-Systemen sowohl auf individueller als auch auf gesellschaftlicher Ebene über ein hohes wertschöpfendes Potential verfügt, gibt es Grenzen und Gefahren der Digitalisierung, die immer dann gegeben sind, wenn der Einsatz künstlicher Intelligenz auf der individuellen oder gesellschaftlichen Ebene mit der Würde und den Rechten des Menschen qua Mensch kollidiert. Dabei lassen sich grob zwei Arten von Problemen der Digitalisierung identifizieren: Probleme durch die Analyse von big data sowie Probleme durch die Integration von embodied-KI-Systemen in die Lebenswelt des Menschen.

Ein erstes zentrales Problem der Digitalisierung besteht darin, dass die für viele KI-Anwendungen notwendigen big data nicht nur einen wertschöpfenden Einsatz zur Bereicherung des individuellen und gesellschaftlichen Lebens ermöglichen, sondern ipso facto auch die Basis für automatisierte KI-generierte Diskriminierungen sind. Der Grund dafür findet sich in der Architektur lernfähiger künstlicher neuronaler Netzwerke: Zum einen gehen im Modus des unüberwachten Lernens betriebene KNNs davon aus, dass Merkmale, die in der Vergangenheit statistisch relevant korrelierten, auch in der Zukunft korrelieren werden und zum anderen hängt es von den big data, die für den Lernprozess des KNN verwendet werden, ab, welche Merkmale überhaupt als miteinander statistisch verbunden identifiziert werden. Die für das Training eines KNN gewählten big data entscheiden also darüber, welche Merkmale es bei zukünftigen Einsätzen als miteinander korreliert anzeigt. Wenn beispielsweise im Trainingsset das Merkmal A in 80 Prozent der Fälle mit dem Merkmal B einhergeht, dann wird das KNN davon ausgehen, dass auch in Zukunft das Merkmal A in 80 Prozent der Fälle mit dem Merkmal B einhergeht. Wenn also in der Datenbasis des KNN implizit oder explizit Merkmale A und B vorhanden waren, und die verallgemeinerte Korrelation von A und B eine Diskriminierung von Menschen mit Merkmal A ist, dann wird das KNN diese Diskriminierungen automatisch reproduzieren (Favaretto, 2019; Zweig, 2019). Wenn beispielsweise Trainingsdaten verwendet werden, welche die Hautfarbe H und den Wohnort A eines Menschen mit seiner Kreditwürdigkeit B korrelieren, dann wird ein anhand dieser Daten trainiertes System Menschen mit Hautfarbe H und Wohnort A die Kreditwürdigkeit B zuschreiben. In den USA hat dies dazu geführt, dass people of color bei der Kreditvergabe aufgrund der automatisierten Entscheidungen der KI diskriminiert wurden (Gillis/Spiess, 2019). Der Einsatz von KI-Systemen, die sich auf die Analyse von big data stützen, bringt daher die Gefahr mit sich, dass durch die zum Einsatz kommende künstliche Intelligenz implizite Vorurteile oder Fehler in der Datenmenge reproduziert werden und damit die Würde des Menschen aufgrund automatisierter Entscheidungen verletzt wird (siehe auch → Gerechtigkeit). Um gegen diese Gefahr gewappnet zu sein, ist es notwendig, dafür zu sorgen, dass die Trainingsdaten zum einen möglichst frei von diskriminierenden Vorurteilen sind, sowie zum anderen Mittel und Wege zu finden, um die Entscheidungen künstlich intelligenter Systeme transparent und nachvollziehbar zu gestalten, damit Fehler im System, die zu Diskriminierung führen, identifiziert und ausgebessert werden können.

Ein zweites Problem der Digitalisierung in Bezug auf big data besteht darin, dass die big data gestützte Analyse menschlicher Präferenzen nicht nur dazu führt, dass in den sozialen Medien diejenigen Nachrichten und Freundschafts- oder Partnerschaftskontakte angezeigt werden, die den eigenen Präferenzen entsprechen, sondern dass aufgrund der verwendeten Algorithmen nur noch solche Nachrichten und Freundschaftskontakte angezeigt werden, was auf Dauer zu einer Verkümmerung des menschlichen Lebens führen kann. Die Generierung solcher Echokammern des Internets ist einerseits problematisch, da sie den Informationsfluss einschränkt und zu einer verzerrten Wahrnehmung der individuellen oder gesellschaftlichen Lebenswirklichkeit führen kann, in der die eigene Filterblase mit dem gesamtgesellschaftlichen Diskurs verwechselt wird. Darüber hinaus besteht andererseits die Gefahr, dass durch die gezielte Steuerung von Informationsflüssen durch staatliche Stellen oder global player wie Facebook oder Alphabet eine gezielte Manipulation und Täuschung der Menschen ermöglicht wird, die sich durch das Einstreuen von KI-generierten fake news oder statements (bots) beispielsweise auf politische Wahlen auswirken kann: KI-Systeme sind mittlerweile in der Lage, sowohl Texte zu verfassen, die sich kaum noch von Texten unterscheiden, die Menschen verfasst haben (open-GPT3), Bilder und Videos von Menschen eigenständig zu generieren, die sich kaum von authentischen Bildern und Videos unterscheiden (deep fakes), Lieder zu komponieren oder Kunstwerke zu kreieren. Man mag sich kaum ausmalen, welches Täuschungs- und Manipulationspotential dadurch gegeben ist. Obwohl durch die Digitalisierung zwar die wertschöpfende Möglichkeit eines Zugriffs auf den gesamten Bestand menschlichen Wissens gegeben ist, bringt sie durch Echokammern, fake news und deep fakes ebenso die Gefahr einer Horizontbeschränkung und politischen Manipulation wie Täuschung der Menschen für staatliche oder wirtschaftliche Interessen mit sich, die auf globaler Ebene ohne eine Selbstverpflichtung aller Staaten und Unternehmen nur schwer zu kontrollieren sein wird (Woolley, 2020).

An die gezielte Manipulation und Täuschung der Menschen mittels KI unmittelbar anschließend besteht ein drittes Problem der Digitalisierung darin, dass es möglich ist, jedem Menschen und jedem Bürger eines Landes aufgrund seines sensorisch oder digital aufgezeichnetem Verhaltens ein digitales Modell zuzuordnen, das über die wahrscheinlichen Persönlichkeitsmerkmale und das wahrscheinliche zukünftige Verhalten Auskunft gibt: Künstlich intelligente Systeme sind in der Lage, aus dem digital erfassten Verhalten des Individuums in den sozialen Medien mit erschreckender statistischer Zuverlässigkeit zu lernen, über welche Vorlieben, weltanschaulichen Grundeinstellungen, Bedürfnisse und politischen Ziele es verfügt. Da in der Regel in vielen Gesellschaften eine erstaunliche Sorglosigkeit in Bezug auf die preisgegebenen Daten des eigenen Lebens vorherrscht und es kaum jemanden zu stören scheint, dass Firmen wie Facebook oder Alphabet über solche Informationen verfügen, kommt denjenigen, die über diese Informationen verfügen, eine große politische und wirtschaftliche Macht zu, die je nach Zweck zur Manipulation der Bürgerinnen und Bürger eines Landes genutzt werden kann (Buttarelli, 2017). Global Player wie Alphabet, Facebook oder Apple haben aufgrund ihrer gesammelten Nutzerdaten ein erschreckendes Potential zur Manipulation des Menschen für ihre Zwecke und stehen nur bedingt unter staatlicher Kontrolle.

Abgesehen von den durch big data und ihrem Missbrauch gegebenen Problemen der Digitalisierung bestehen weitere Gefahren der Digitalisierung darin, dass die Präsenz von embodied-KI-Systemen in der Lebenswelt des Menschen zu gravierenden gesellschaftlichen und ethischen Problemen führen kann. Ein zentrales gesellschaftliches Problem besteht darin, dass der Einsatz von KI-gesteuerten Robotern zur Übernahme menschlicher Arbeiten zu einer Umstrukturierung des Arbeitsmarktes führen wird, die nicht nur Gewinner, sondern ebenso Verlierer der Digitalisierung hervorbringen wird, die ihren Arbeitsplatz und damit die Sicherung ihrer individuellen Existenz verlieren werden, weil ihre Arbeitskraft effizient und gewinnbringend von einer Maschine ersetzt werden kann. Obwohl in der Vergangenheit technologische Revolutionen bereits öfters ganze Berufsfelder zum Verschwinden gebracht haben und neue Arbeitsfelder erzeugt haben, ist abzusehen, dass es nicht ohne Weiteres möglich sein wird, alle verlorenen Arbeitsplätze durch die Umschulung und Weiterbildung des Personals an die Erfordernisse der neuen Berufsfelder anzupassen. Da durch die Umstrukturierung also zumindest temporär eine gesteigerte Arbeitslosigkeit in der Gesellschaft die Folge sein könnte, die mit gesamtgesellschaftlichen und generationsübergreifenden Kosten verbunden sein wird, steht die Gesellschaft vor der Aufgabe, Prozesse des digitalen Wandels verantwortet und weitsichtig im Vorhinein zu gestalten und Optionen, wie die eines bedingungslosen Grundeinkommens, zu diskutieren und Wege zu finden, wie die Digitalisierung nicht dazu führt, dass die Schere zwischen Arm und Reich noch weiter auseinandergeht als sie es bereits tut (Jähnichen/Wiemeyer, 2020).

Ein zweites Problem der Integrierung von embodied-KI in die Lebenswelt des Menschen besteht darin, dass durch die Interaktion von Mensch und embodied-KI Konflikte entstehen können, in denen Menschen unbeabsichtigt oder beabsichtigt Schaden nehmen können. Um diese Gefahren und den mit ihnen verbundenen Schaden zu analysieren und zu reduzieren, werden in der sogenannten Maschinenethik KI-Systeme als künstliche moralische Akteure analysiert (Reinforcement-Learning), die in ethische Konfliktsituationen kommen können, in denen sie moralische Probleme eigenständig lösen können müssen. Die Maschinenethik fragt, welcher Fähigkeiten es bedarf, damit ein künstlicher Akteur ethisch relevante Situationen erkennen und entscheiden kann, welche ihm zur Verfügung stehende Aktion in dieser Situation die moralisch beste Option darstellt. Die Maschinenethik ist somit „concerned with giving machines ethical principles or a procedure for discovering a way to resolve the ethical dilemmas they might encounter, enabling them to function in an ethically responsible manner through their own ethical decision making“ (Anderson/Anderson, 2011, 1): Ist es beispielsweise möglich, ein Auto technisch so auszustatten, dass es eine Situation, bei dem Schaden als Folge einer Entscheidung prinzipiell unausweichlich ist, erkennen, die (ethisch) relevanten Faktoren – Anzahl der Passanten, Insassen, Geschwindigkeit, Schadenswahrscheinlichkeiten etc. –, sowie die gegebenen Optionen einschätzen, die unterschiedlichen möglichen Folgen abwägen und eine der kontingenten Situation angemessene Lösung herbeiführen kann? Dürfen in einem solchem Fall überhaupt Menschenleben gegeneinander abgewogen werden (Chan, 2019; Brand/Göcke, 2020)? Während Fälle wie die eines selbstfahrenden Autos oder eines sich in einer Fabrikhalle eigenständig bewegenden Roboters Fälle eines möglicherweise unbeabsichtigten Schadens am Menschen durch KI-Systeme sind, betrifft ein unmittelbar damit zusammenhängendes Problem der embodied-KI die Fälle, in denen KI-gesteuerte Maschinen konstruiert werden, deren primärer Zweck es ist, Menschen gezielt zu verletzen oder zu töten. Eine zentrale Frage der Digitalisierung besteht in diesem Bereich darin, ob autonome Waffensysteme entwickelt werden dürften, deren Ziel darin besteht, ohne menschliche Kontrolle und Entscheidung (without a human in the loop) eigenständig Menschen zu verletzen oder zu töten. Während Befürworter dieser Technologie häufig argumentieren, dass gerade der Einsatz einer Technologie, die in Kampfhandlungen nicht dem emotionalen Stress des Menschen unterliegt, human ist, argumentieren Gegner autonomer Waffensysteme, dass ihr Einsatz unmittelbar mit der Würde des Menschen kollidiert. Hier steht die internationale Politik vor der Aufgabe, verbindliche Regeln zu schaffen und durchzusetzen (Asaro, 2012; Vilmer 2017; Altmann/Sauer, 2017).

Insgesamt bestehen die mit dem Prozess der Digitalisierung einhergehenden Gefahren und Risiken sowohl auf individueller als auch gesellschaftlicher Ebene darin, dass KI-Systeme von staatlicher oder wirtschaftlicher Seite gezielt eingesetzt werden können, um Menschen zu täuschen, zu manipulieren und somit zu kontrollieren. Darüber hinaus können sie zu ethisch relevanten Konfliktsituationen führen, in denen Menschen durch den Einsatz von KI-Systemen in unbeabsichtigter oder beabsichtigter Perspektive Schaden zugefügt wird (siehe auch → Cybermobbing).

4. Philosophische Probleme der Digitalisierung

Der Prozess der Digitalisierung führt nicht nur zu individuellen und gesellschaftlichen Chancen und Problemen, sondern auch zu spezifisch philosophischen Fragestellungen, von denen zwei abschließend kurz skizziert seien.

4.1. Künstliche Intelligenz und Bewusstsein

Eine genuin philosophische Herausforderung der Digitalisierung besteht darin, dass künstlich intelligente Systeme die Sonderstellung des Menschen als rationalem Akteur, der über Intelligenz und Bewusstsein seiner selbst verfügt und deswegen zielgerichtet in der Welt handeln kann, herausfordern (siehe auch → Anthropologie). Wie Herzfeld (2002, 33) es formuliert: “AI can be viewed as the attempt to create an imago hominis, a machine that is in some way created in the image of the human person, in image loosely defined using the term intelligence.”

Da KI-Systeme nicht nur Leistungen vollbringen können, die im Falle des Menschen seine Intelligenz voraussetzen, sondern beim jetzigen Stand der Forschung in vielen Bereichen weit über die Leistungen und Möglichkeiten des Menschen hinausgehen, stellt sich der philosophischen Reflexion die Frage, ob künstliche intelligente Systeme nur Simulacra menschlicher Fähigkeiten sind – sogenannte schwache KI (weak AI) – oder ob mit der Konstruktion künstlich intelligenter Systeme etwas hergestellt worden ist, dass im gleichen Maße wie der Mensch über ein Bewusstsein seiner selbst und die Fähigkeit zu rationalem Handeln verfügt – sogenannte starke KI (strong AI).

Je nach Antwort auf die Frage, ob ein künstlich intelligentes System nur eine Ansammlung mathematischer Funktionen ist oder über ein eigenständiges Bewusstsein verfügt und je nach Antwort auf die Frage, ob das menschliche Bewusstsein nur eine Ansammlung mathematischer Funktionen ist, folgen Konsequenzen für die praktische Philosophie und unseren Umgang mit künstlicher Intelligenz: In dem Fall, dass die besten Argumente dafür sprechen, KI-Systemen Bewusstsein zuzuschreiben, müsste ihnen auch mindestens der Status eines Rechtssubjektes analog zu bewussten Tieren zugeschrieben werden. Während sie in dem Fall, dass keine überzeugenden Argumente für ihr Bewusstsein sprechen, nicht anders behandelt werden müssten als ein Hammer (Searle, 2005; Bryson, 2010; Müller, 2020; Gunkel, 2019 Gunkel, 2020).

Wenn die funktionale Struktur des menschlichen Gehirns als solche hinreichend ist für die Existenz eines individuellen Bewusstseins, und wenn KNNs sich dieser Struktur annähern, dann scheint es plausibel zu sein, hinreichend komplexen KI-Systemen ein Bewusstsein zuzuschreiben (Churchland, 2000). Wenn allerdings die konkrete biochemische Konstitution des menschlichen Bewusstseins eine notwendige Bedingung für Bewusstsein jeder Art ist, dann scheinen KI-Systeme nicht über ein Bewusstsein verfügen zu können. Da es aber sowohl gute Gründe für die Annahme gibt, dass die Existenz von Bewusstsein nicht notwendigerweise auf ein menschliches Gehirn angewiesen ist, und da es gute Gründe gibt, dass die Existenz von Bewusstsein etwas mit der Art und Weise zu tun hat, wie ein in die Umwelt integriertes System Informationen verarbeitet, scheint es zumindest nicht prinzipiell ausgeschlossen zu sein, dass es KI-Systeme geben kann, die über Bewusstsein verfügen. Ob wir dieses allerdings mit hinreichender Sicherheit aus der externen Perspektive feststellen können, ist Gegenstand andauernder philosophischer Diskussionen. Da es unklar ist, wie genau Atome, die im leeren Raum schwingen, überhaupt zur Existenz bewussten Lebens und einer phänomenalen Innenperspektive führen können, wird das Rätsel des Bewusstseins auch in Zeiten der Digitalisierung virulent bleiben.

4.2. Künstliche Intelligenz und Human Enhancement

Neben den Chancen und Problemen der Digitalisierung sowie der Frage danach, was genau aus ontologischer Perspektive über den moralischen Status von KI-Systemen an sich ausgesagt werden kann, hat der Einsatz von KI im Bereich der synthetischen Biologie zu enormen Erkenntnisgewinnen geführt, die die Menschheit vor neue Herausforderungen in Bezug auf ihre zukünftige Entwicklung stellen (siehe auch → Leib und Körper).

Die durch den Einsatz künstlich intelligenter Systeme gewonnenen Erkenntnisse über die Struktur und Funktionsweise der Natur führen zu technologischen Entwicklungen, die es dem Menschen ermöglichen, sowohl seine eigene Existenz und seinen biologischen Körper als auch das Ökosystem als Verfügungsmasse der instrumentellen Vernunft aufzufassen. Zum ersten Mal in seiner Geschichte ist der Mensch in der Lage, fernab von kulturellen und evolutionären Einflüssen, seinen Körper genetisch zu verändern und kybernetisch zu erweitern, sowie mittels Geoengineerings das Ökosystem auf lokaler und globaler Ebene gemäß seinen Wünschen zielgerichtet zu beeinflussen (Göcke, 2018; Banning, 2018; Klaes, 2018).

Durch die voranschreitende Entwicklung im Bereich der künstlichen Intelligenz steht unter den Vorzeichen einer funktionalistischen Theorie des Geistes prima facie sogar die Möglichkeit offen, nicht nur Körper und Geist des Menschen zu verändern und in Form von Computer-Mensch-Schnittstellen in einen Cyborg zu transformieren, sondern darüber hinaus auch, eine digitale Kopie des Bewusstsein des Menschen zu erstellen und das bewusste Leben des Menschen auf einen Computer zu transformieren, um ihm ein nach seinen Wünschen ausgerichtetes Leben in einer vollständig virtuellen Umgebung zu ermöglichen (Siehe auch → Tod, interreligiös).

Während der Transhumanismus den Einsatz digitaler Technologie forciert, um den Menschen, seine Nachkommen und seine Umwelt genetisch und kybernetisch zu verbessern, um ihm so ein von natürlichen Zwängen möglichst freies und gutes Leben zu ermöglichen, strebt der technologische Posthumanismus darüber hinaus die Überwindung der biologischen Existenz des Menschen an, um ein virtuelles Leben zu realisieren, das frei ist von den Zwängen und Mängeln einer aus posthumanistischer Sicht ungenügenden biologischen Lebensform. Die Herausforderung der Philosophie besteht vor diesem Hintergrund darin, die Argumente zu sondieren, die für und wider eine gezielte Veränderung der menschlichen Natur und der menschlichen Lebenswelt sprechen (Lennox, 2020).

5. Fazit

Die technologische Entwicklung der Menschheit hat uns in die Lage versetzt, künstlich intelligente Systeme zu entwickeln, die eigenständig komplexe Aufgaben erfüllen können und dabei die Leistungsfähigkeit des Menschen bei Weitem überschreiten. Da sich die Entwicklung künstlich intelligenter Systeme durch bereits erzielte Erfolge in der Regel weiter beschleunigt (Buchanan, 2008) und somit beständig zu neuen Möglichkeiten und Einsatzgebieten von KI-Systemen führt, wird die KI-Forschung in den nächsten Jahrzehnten aller Voraussicht nach weiter dazu beitragen, uns ein technologisches Potential an die Seite zu stellen, welches den Gestaltungsspielraum des individuellen und gesellschaftlichen Lebens auf ungeahnte Art und Weise erweitert (Nida-Rümelin/Weidenfeld, 2018).

Obwohl der Prozess der Digitalisierung, wie jede andere Technologie, zum Guten oder zum Schlechten verwendet werden kann, fordert er aufgrund seines enormen Potentials in besonderer Weise jeden Einzelnen und den gesamten Bund der Menschheit heraus, ihm eine Richtung zu geben, die sich nur daran orientieren kann, wie das Ziel des individuellen und gesellschaftlichen menschlichen Lebens bestimmt wird. Obwohl die Digitalisierung wie keine andere Technologie bereits das individuelle und gesellschaftliche Leben verändert hat, führt sie im Kern zur philosophischen Frage des guten Lebens des Menschen zurück: In welchen Bereichen trägt die Digitalisierung dazu bei, dass der Mensch ein gutes Leben verwirklichen kann? In welchen Bereichen verhindert sie ein gutes Leben des Menschen? Und was ist das überhaupt: ein gutes Leben?

Literaturverzeichnis

  • Aach, Mirko (Hg. u.a.), Exoskelettales Rehabilitationstraining bei Querschnittgelähmten. Fallserie zum funktionellen Outcome, in: Trauma und Berufskrankhheit, 16, (2014) 1, 9-12.
  • Alpaydin, Ethem, Machine Learning, London 2016.
  • Altmann, Jürgen/Sauer, Frank, Autonomous Weapon Systems and Strategic Stability, in: Survival, 59 (5), (2017), 117-142.
  • Anderson, Michael/Anderson, Susan L. (Hg.), Machine Ethics, Cambridge, Massachusetts 2011.
  • Asaro, Peter, On banning autonomous weapon systems: human rights, automation, and the dehumanization of lethal decisionmaking, in: International Review of the Red Cross, 94 (2012), 687-709. Online unter: https://doi.org/10.1017/S1816383112000768, abgerufen am 19.07.2021.
  • Banning, Andre, Das Anthropozän – die Menschheit als geologischer Faktor, in: Göcke, Benedikt P./Meier-Hamidi, Frank (Hg.), Designobjekt Mensch. Der Transhumanismus auf dem Prüfstand, Freiburg i. Br. 2018, 409-428.
  • Brand, Lukas, Künstliche Tugend. Roboter als moralische Akteure, Regensburg 2018.
  • Brand, Lukas/Göcke, Benedikt P., Über die Notwendigkeit einer Maschinenethik, in: Krenn, Karoline/Hunt, Simon/Parycek, Peter (Hg.), Künstliche Intelligenz als Ordnungsstifterin, Berlin 2020, 143-162.
  • Brynjolfsson, Erik/McAfee, Andrew, The Second Machine Age. Wie die nächste digitale Revolution unser aller Leben verändern wird, Kulmbach 2019.
  • Bryson, Joanna J., Robots should be slaves, in: Wilks, Yorick (Hg.), Close Engagements with Artificial Companions, Amsterdam 2010, 63-74.
  • Buchanan, Mark, The law of accelerating returns, in: Nature Physics 4 (2008), 507.
  • Buttarelli, Giovanni, Datenschutz und Ethik, in: Otto, Philip/Gräf, Eike (Hg.), Ethics. Die Ethik der digitalen Zeit, Berlin 2017, 216-227.
  • Chan, Robin (Hg. u.a.), The Ethical Dilemma when (not) Setting up Cost-based Decision Rules in Semantic Segmentation, o.O. 2019. Online unter: https://arxiv.org/abs/1907.01342, abgerufen am 14.07.2021.
  • Churchland, Paul M., The Engine of Reason, the Seat of the Soul. A philosophical journey into the brain, Cambridge, Massachusetts 2000.
  • Favaretto, Maddalena/de Clercq, Eva/Elger, Bernice S., Big Data and discrimination: perils, promises and solutions. A systematic review, in: Journal of Big Data 6 (2019) 12. Online unter: https://doi.org/10.1186/s40537-019-0177-4, abgerufen am 19.07.2021.
  • Luciano, Floridi, Die Mangroven-Gesellschaft. Die Infosphäre mit künstlichen Akteuren teilen, in: Otto, Philipp/Gräf, Eike (Hg.), Ethics. Die Ethik der digitalen Zeit, Berlin 2017, 18-28.
  • Gillis, Talia B./Spiess, Jann L., Big Data and Discrimination, in: University of Chicago Law Review 86 (2019) 2, 459-487.
  • Göcke, Benedikt P., Designobjekt Mensch?! Ein Diskursbeitrag über Probleme und Chancen transhumanistischer Menschenoptimierung, in: Göcke, Benedikt P./Meier-Hamidi, Frank (Hg.), Designobjekt Mensch. Der Transhumanismus auf dem Prüfstand, Freiburg i. Br. 2018, 117-152.
  • Gunkel, David J., The Right(s) Question: Can and should robots have rights?, in: Göcke, Benedikt P./Rosenthal-von der Pütten, Astrid (Hg.), Artificial Intelligence. Reflections on Philosophy, Theology, and the Social Sciences, Leiden 2020, 255-274.
  • Gunkel, David J., Robot Rights, Cambridge, Massachusetts 2019.
  • Hahn, Horst/Schreiber, Andreas, E-Health. Potenziale der Digitalen Transformation in der Medizin, in: Neugebauer, Reimund (Hg.), Digitalisierung. Schlüsseltechnologien für Wirtschaft und Gesellschaft, Berlin 2018, 321-345.
  • Herzfeld, Noreen L., In Our Image. Artificial Intelligence and the Human Spirit, Minneapolis 2002.
  • Hillerbrand, Rafaela/Milchram, Christine/Schippl, Jens, Die Bedeutung von Digitalisierung für die Zukunft unsere Energiesysteme, in: Otto, Philip/Gräf, Eike (Hg.), Ethics. Die Ethik der digitalen Zeit, Berlin 2017, 228-241.
  • Hippmann, Sophie/Klingner, Raoul/Leis, Miriam, Digitalisierung – Anwendungsfelder und Forschungsziele, in: Neugebauer, Reimund (Hg.), Digitalisierung. Schlüsseltechnologien für Wirtschaft und Gesellschaft, Berlin 2018, 9-18.
  • Jaume-Palasí, Lorena, How Artificial Intelligence is Impacting Societies, in: Krenn, Karoline/Hunt, Simon/Parycek, Peter (Hg.), (Un)ergründlich? Künstliche Intelligenz als Ordnungsstifterin, Berlin 2020, 111-123.
  • Jähnichen, Traugott/Wiemeyer, Joachim, Wirtschaftsethik 4.0. Der digitale Wandel als wirtschaftliche Herausforderung, Stuttgart 2020.
  • Kaplan, Jerry, Artificial Intelligence, What Everyone Needs to Know, Oxford 2016.
  • Klaes, Christian, Was steckt hinter den Versprechen des Transhumanismus? Eine naturwissenschaftliche Perspektive, in: Göcke Benedikt P./Meier-Hamidi, Frank (Hg.), Designobjekt Mensch. Der Transhumanismus auf dem Prüfstand, Freiburg i. Br. 2018, 379-408.
  • Kutschera, Franz von, Grundlagen der Ethik, Berlin 1999.
  • Lennox, John C., 2084. Artificial Intelligence and the Future of Humanity. Grand Rapids, Michigan 2020.
  • Michel, Jan G., Could Machines replace human scientists? Digitalization and Scientific Discoveries, in: Göcke, Benedikt P./Rosenthal-von der Pütten, Astrid (Hg.), Artificial Intelligence. Reflections on Philosophy, Theology, and the Social Sciences, Leiden 2020, 361-376
  • Miller, Boaz, Is Technology Value-Neutral?, in: Science, Technology, and Human Values. Online First 46 (2020), 53-80.
  • Misselhorn, Catrin, Grundbegriffe der Maschinenethik, Stuttgart 2018.
  • Müller, Tobias, Conscious Thinking, and Intelligent Machines? Some Clarifying Remarks in the Field of Artificial Intelligence, in: Göcke, Benedikt P./Rosenthal-von der Pütten, Astrid (Hg.), Artificial Intelligence. Reflections on Philosophy, Theology, and the Social Sciences, Leiden 2020, 3-14.
  • Nida-Rümelin, Julian/Weidenfeld, Nathalie, Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz, München 2018.
  • Pitt, Joseph C., It’s not about Technology, in: Knowledge, Technology & Policy 23 (2010), 445-454.
  • Pitt, Joseph C., ‘Guns Don’t Kill, People Kill’; Values in and/or around Technologies, in: Kroes, Peter/Verbeek, Peter-Paul (Hg.), The Moral Status of Technological Artifacts, Dordrecht 2014, 89-101.
  • Ramge, Thomas, Mensch und Maschine. Wie Künstliche Intelligenz und Roboter unser Leben verändern, Stuttgart 2018.
  • Searle, John R., Minds, Brains, and Programs, in: Boden, Margaret A. (Hg.), The Philosophy of Artificial Intelligence, Oxford 2005, 67-88.
  • Sorgner, Stefan L., Transhumanismus. Die gefährlichste Idee der Welt!?, Freiburg i. Br. 2016.
  • Thylstrup, Nanna B., The Politics of Mass Digitization, Cambridge, Massachusetts 2018.
  • Vilmer, Jean-Baptiste J., Terminator-Ethik. Sollten Killerroboter verboten werden?, in: Otto, Philip/Gräf, Eike (Hg.), Ethics. Die Ethik der digitalen Zeit, Berlin 2017, 114-133.
  • Wallach, Wendell/Asaro, Peter, Machine Ethics and Robot Ethics, New York 2017.
  • Woolley, Samuel, We’re fighting fake news AI bots by using more AI. That’s a mistake, o.O. 2020. Online unter: https://www.technologyreview.com/2020/01/08/130983/were-fighting-fake-news-ai-bots-by-using-more-ai-thats-a-mistake/, abgerufen am 14.07.2021.
  • Zimmerli, Walther C., Deus Malignus, in: Göcke, Benedikt P./Rosenthal-von der Pütten, Astrid (Hg.), Artificial Intelligence. Reflections on Philosophy, Theology, and the Social Sciences, Leiden 2020, 15-35.
  • Zweig, Katharina, Ein Algorithmus hat kein Taktgefühl. Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können, München 2019.

PDF-Archiv

Alle Fassungen dieses Artikels ab Oktober 2017 als PDF-Archiv zum Download:

VG Wort Zählmarke
die-Bibel.dev.4.17.7
Folgen Sie uns auf: