[Textende]
[Rainer Fischbach]
Rainer Fischbach
Literaturhinweise zur Künstlichen Intelligenz,
ihrem informationstechnischen, politischen und gesellschaftlichen Kontext
Stand: 6. Januar 2025
rainer_fischbach@gmx.net
Mobil +49 (0) 171 4141570
Übersicht
[Allgemeinverständliche Bücher:
Einführungen, politische und sozialwissenschaftliche Diskussion]
[Artikel zur politischen und sozialwissenschaftlichen Diskussion]
[Philosophische Aspekte]
[Fachbücher]
Allgemeinverständliche Bücher:
Einführungen, politische und sozialwissenschaftliche Diskussion
- Ananthaswamy, Anil (2024):
Why Machines Learn: The Elegant Maths Behind Modern AI.
London: Allen Lane.
Dieses Buch liegt an der Grenze zwischen populärwissenschaftlicher
und fachlicher Literatur. Es versucht eine Tür zu öffnen,
die zum Verstäandnis der Grundlagen des Maschinenlernens
führt, indem es wesentliche Punkte der Linearen Algebra,
der mehrdimensionalen Analysis, der Optimierung, der Wahrscheinlichkeitstheorie
und Statistik mit ihrer Rolle im Maschinenlernen erklärt.
Das hat durchaus Erfolgschancen, doch ist es
für Leser, die Formeln grundsätzlich abschreckend finden,
kaum zu empfehlen. Allen, die sich nicht abschreckenn lassen sowie etwas
Mut und Ausdauer mitbringen, bietet
es neben wertvollen Einsichten auch einige Details
zur Entwicklungsgeschichhte der KI.
- Bauer, Joachim (2024):
Realitätsverlust:
Wie KI und virtuelle Welteen von uns Besitz ergreifen —
und die Menschlichkeit bedrohen.
München: Heyne.
Das hier abgedeckte thematische Spektrum reicht über die KI hinaus:
es geht um die Frage, was aus dem Menschen, der menschlichen Gesellschaft
wird, wenn die digitalelektronisch vermittelte Telekommunikation die
in physischer Präsenz ersetzt bzw. das Gegenüber verdrängt,
wenn all die vielen digitalen Tools uns unserer eigenen Fähigkeiten entwöhnen
und diese schließlich verkümmern, wenn synthetische Welten
die realen ersetzen, wenn am Ende, nach den Plänen der Transhumanisten,
der Mensch selbst für obsolet erklärt und ersetzt werden soll.
Der Neurowissenschaftler Joachim Bauer legt hier wohlbegründeten Einspruch
ein, der gehört zu werden verdient.
Das ist ein großartiges und wichtiges Buch, das ich nur empfehlen kann.
Doch ein wenig Kritik muss trotzdem sein und sie sei hier
auch ausführlich dargelegt, weil sie Punkten gilt, die über
den vorliegenden Anlass hinaus von Bedeutung sind.
Der erste und wichtigste davon betrifft die Sprache, genauer:
die proliferative Verwendung des Begriffspaars "analog — digital",
insbesondere den hilflos erscheinenden Versuch, die Wirklichkeit der Wirklichkeit
zu unterstreichen, indem man sie als "analoge" bezeichnet.
Der Text kennt die "analoge Präsenz",
die "analoge Lebensgestaltung", eine "analoge Realität",
den "analogen Raum"
und sogar "analoge Pflanzen" —
dies alles im Gegensatz
zu "digitalen". Damit unterstützt der Autor nicht nur
die Illusion, die er kritisiert, nämlich dass es
zwei gleichwertige Wirklichkeiten gäbe, eben neben einer
"analogen" eine "digitale", sondern
auch den ubiquitären Missbrauch der Begriffe
"analog" und "digital". Diese beziehen
sich in der Technik auf die Darstellung von Größen:
eine analoge findet statt, wenn eine Größe
durch eine sinnfällig präsentierte andere Größe angezeigt
wird, etwa die Geschwindigkeit auf dem Tacho durch den Ausschlagswinkel
des Zeigers oder die Temperatur durch die Säule des Thermometers, während
die digitale eben durch Ziffern erfolgt.
So zutreffend es ist, dass all dass, was wir heute mit
den sogenannten digitalen Medien machen und
vor allem konsumieren, mittels digitaler Technik
— früher hießen Computer "Ziffernrechenautomaten"
— produziert und transportiert wird,
so wahr ist auch, dass die Masse der Nutzer
mit dieser Technik praktisch nicht in Berührung kommt.
Es sind meist digital erzeugte analoge Repräsentationen
von Gegenständen, Größen etc., mit denen sie umgehen,
die sie konsumieren. Auch die meisten Fahrer der
mit digitaler Technik vollgestopften Autos bevorzugen
die digitale Simulation eines analogen Tachos.
Die analoge Darstellung ist eben die unseren Sinnen,
der Organisation unseres Erkenntnis-
und Handlungsvermögens gemäße. Völlig sinnlos
ist es jedoch, die Gegenstände, Sachverhalte und Situationen
der sinnlich erfahrbaren Welt als "analoge"
zu bezeichen: die sind eben weder "analog"
noch "digital", sondern sie selbst und
nicht irgend eine Darstellung von sich. Es gibt Pflanzen,
doch "analoge" Pflanzen gibt es so wenig
wie "digitale".
Worte der Kritik verdient auch der Versuch,
die religiöse Praxis des Mittelalters
bzw. deren Gestaltung durch die Kirche,
als Analogon zu den digital machinierten virtuellen Ersatzwelten
der Gegenwart zu gebrauchen.
Die Kirche war in der Tat ein zentraler öffentlicher Ort,
doch gab es auch Dorfplätze und Feste mit Musik,
Tanz, gemeinsamem Essen und Trinken.
Vor allem jedoch war das Geschehen in der Kirche längst nicht
strikt reglementiert wie in den letzten 200 Jahren.
Es war wirklich ein Treffpunkt. Das ist auch noch
auf manchen niederländischen Gemälden
des 16. und 17. Jahrhunderts zu sehen.
Der Vergleich des damaligen Kirchgangs
und der Gebetsriten mit der heutigen mentalen Dauerabsenz
durch die diversen digitalelektronischen Gadgets hinkt
in jeder Hinsicht: Leben und Arbeit unter
den damaligen Bedingungen verlangten geistige Gegenwart
und auch in der Mystik ging es letztlich genau um die Gegenwart.
Das Abtauchen virtuellen Welten und die Träume der Transhumanisten
als "digitale Mystik" zu bezeichnen,
geht an der Sache vorbei und tut der Mystik Unrecht.
Joachim Bauer hat höchst fragwürdige Vorstellungen
vom Mittelalter. Zu fragen ist schon, wie christlich
das gerne als christliches charakterisierte Mittelalter tatsächlich
war. Das Bild, das heute davon dominiert, ist das
von seinen Herrschern gezeichnete, nicht das, welches
ein unvoreingenommener Blick auf
die gesellschaftliche Realität vielleicht geliefert hätte.
Es waren letztlich Reformation, Aufklärung
und schließlich der dadurch unter Druck geratene Katholizismus, die
die lange noch präsenten Reste heidnischer Überlieferungen
und Bräuche größtenteils beseitigten.
Die Kirchen, die mittelalterliche Menschen überwiegend frequentierten
— es gibt davon nur noch wenige erhaltene Exemplare,
die zudem meist baulich verändert wurden —, hatten sicher wenig
von der lichten, schlichten, schlanken Pracht
der gotischen Kathedralen, sondern dicke, eher
nicht oder sparsam bemalte Mauern mit Luken, die sie, wie
das spärliche Kerzenlicht, nur schwach beleuchteten.
Dass sie mit einer Orgel ausgestattet waren, ist eher unwahrscheinlich.
Bis ins 9. Jahrhundert war die Kirchenmusik rein vokal.
Ein so komplexes und teures Instrument wie die Orgel setzte
sich nur sehr langsam durch.
Jene Kathedralen waren einerseits Ausdruck einer Frömmigkeit,
die heute schwer nachzuvollziehen ist, doch auch Selbstdarstellung
meist eines selbstbewussten, aufstrebenden Bürgertums.
Das Mittelalter, nicht die oft besungene Renaissance, war die Zeit
der Stadtrepubliken, transalpin wie cisalpin, und die Renaissance
war auch, viel mehr als das Mittelalter, eine Zeit
von schweren Krisen. Besonders das Hochmittelalter
war eine Phase relativ milden Klimas, wachsender Prosperität,
auch technischen wie politischen Fortschritts
und zunehmender Bevölkerung —
die meisten bedeutenden europäischen Städte wurden
in dieser Zeit gegründet —, also nicht das Jammertal,
als das es gerne dargestellt wird. Es gibt guten Grund,
den Beginn der Moderne dort anzusetzen. Wenn eine Epoche sich
als Analogon zum digitalen Feudalismus der Gegenwart eignet,
dann am ehesten noch das Barock, das ganz entscheidend durch
das kirchenpolitische Programm der Gegenreformation geprägt
war. Architektonische Gestik, dekorative Elmente
und schwelgende Darstellungen in Bildern sollten
die auf dem tridentinischen Konzil bestätigte sakramentale Ordnung stärken,
die Gläubigen zugleich einschüchtern
und mit ein wenig Abglanz des Himmels trösten.
Im Barock erlebte auch die Orgelmusik, von der Joachim Bauer fälschlich
glaubt, dass sie im Mittelalter eine große Rolle gespielt hätte,
einen Höhepunkt.
Ich wies auf die Analogie von Barock und medialer Moderne schon 2005 in
Mythos Netz,
auf Seite 170, hin.
Als merkwürdige Koinzidenz erscheint,
dass Bauer seinem Kapitel 4, das den Transhumanismus zum Gegenstand
hat, denselben Leitsatz aus Friedrich Nietzsches Zarathustra voranstellt,
mit dem ich vor 20 Jahren Mythos Netz abschloss.
Dem Bild des "finsteren" Mittelalters setzt Joachim Bauer
ein lichtes der Moderne und der Aufklärung entgegen,
dem das Bewusstsein für die Dialektik der letzteren fehlt.
Dass die Renaissance, insbesondere in der Kunst, doch nicht nur dort,
den menschlichen Körper neu entdeckte,
ist sicher richtig, doch entdeckte sie ihn auch,
wie man von Michel Foucault lernen kann, als Objekt
von Normierung und Disziplinierung.
Die kritisierte Vorstellung vom Menschen,
von allem Lebenden, als Maschinen, die man im Sinne
des Transhumanismus einem Reengineering unterwerfen könne,
ja durch ein bessere Nachfolgemodelle ersetzen sollte,
ist eben auch eine Frucht der Aufklärung.
Der Humanismus, der mit ihr aufkam, wird so ihr Opfer.
Hier wäre eine vertiefte Diskussion gefordert.
Überflüssig erscheinen die — wenn auch
nur sporadisch auftretenden — gegenderten Plural-Nomina
und Formeln wie "Wissenschaftlerinnen und Wissenschaftler".
Die deutsche Sprache hat das nicht nötig. Eine große Lücke
klafft bezüglich des Ereignisses, das wie kein anderes
die Betroffenen, d.h. nahezu alle und ganz besonders die Jugend,
in die zu Recht problematisierten virtuellen Welten und
die dort lauernden Abhängigkeiten trieb:
das Schweigen zu den menschenfeindlichen Maßnahmen,
die im Zuge einer angeblichen Pandemiebekämpfung erlassen wurden
und vor allem geeignet waren, neben dem Medienkonsum
auch andere problematische Verhaltensweisen
zu verstärken, schwächt die Überzeugungskraft
des Buches.
- Bröckling, Ulrich; Krasmann,
Susanne; Lemke, Thomas (Hrsg.) (2024):
Glossar der Gegenwart 2.0.
Berlin: Suhrkamp
(edition suhrkamp; 2843).
Dieses Glossar, das an ein 2004
mit gleichem Titel erschienenes anschließt, enthält neben
31 weiteren auch Artikel
zu Algorithmus, Digitalisierung
und Künstlicher Intelligenz. Diese Artikel wurden überwiegend
von Sozial-, Kultur- und Medienwissenschaftlern verfasst
und zeugen vor allem vom Niedergang kritischer Wissenschaft.
Die vorherrschende Arbeitsweise lässt sich am besten
als Verstärkung ausgewählter Bänder
des medialen Rauschens beschreiben.
Die Literaturverweise scheinen willkürlich ausgewählt
zu sein und sind nicht hinreichend,
um ein vertieftes Verständnis der Begriffe zu unterstützen.
Wer wirklich wissen will, was z.B. der Begriff "Algorithmus" bedeutet,
ist hier schlecht beraten. Außer Dämonisierung
und Verdunklung ist wenig zu erfahren.
Was hat man sich unter »Verdichtungen mehrdimensionaler Feedbackschleifen,
die immer weitere Kreise ziehen« (49) genau vorzustellen?
Schon zu der simplen Einsicht, dass all das,
was Algorithmen nachgesagt wird, nicht ihr Werk
ist, sondern das von sozialen Akteuren,
die Systeme, in denen unter anderen auch Algorithmen
zum Einsatz kommen, zu ihren Zwecken bauen, konfigurieren
und in gesellschaftliche Zusammenhänge einführen,
reicht es nicht. Den Algorithmen ist keinesfalls eine
»Logik der Selektion eingeschrieben« (51), vielmehr
findet Selektion statt durch Eingabe- bzw. Trainingsdaten,
die Wahl von Parametern und die Interpretation von Ergebnissen.
Ganz offensichtlich haben die Autoren
ein völlig defizitäres Verständnis
des informatischen Geschäfts. Das zeigt sich nicht nur
im Umfang der referierten Literatur, sondern auch in Aussagen
wie der, dass Robert Kowalskis Bestimmung des Begriffs Algorithmus
»[…] tiefer in der informatischen Praxis fundiert
[war] als die aktuell weitverbreitete Definition von Algorithmen
als programmierbare Wenn-dann-Regeln« (47).
Nun reichen Wenn-dann-Regeln auch gemäß der
»weitverbreitete[n] Definition von Algorithmen«
nicht aus, um ein formales System des Rechnens zu begründen,
doch ist das von Kowalski und anderen entwickelte,
auf eine spezifische Fassung der Prädikatenlogik gegründete Konzept
davon nicht irgendwie »tiefer«
als die anderen, nämlich die diversen funktionalen und prozeduralen,
sondern gleichwertig mit ihnen.
Nicht viel besser als um den Begriff des Algorithmus steht es um den
der Künstlichen Intelligenz.
Es ist weder so, dass Verfahren des Maschinenlernens
»Problemlösungen entwickeln« (225),
noch dass die so erstellten Systeme irgend etwas »analysieren«.
Es ist auch nicht so, dass »wie genau die [Systeme] dabei vorgehen […]
selbst Programmierer:innen verborgend [bleibt]«. Vielmehr
ist es die sehr wohl bekannte induktive
und approximative Vorgehensweise
bei der Konstruktion und Anwendung solcher Systeme,
die genau den Aufbau eines logischen Zusammenhangs
von Eingabe und Ausgabe verhindert.
Der Konformismus der hier waltenden Wissenschaft gibt
sich nicht nur inhaltlich, sondern auch in
den durchgängig gesetzten Genderpünktchen
zu erkennen. Inhaltlich besonders auffällig
ist der Artikel zu Ansteckung.
Dort wird der ebenso flache wie manipulative
und als Instrument der Repression taugliche Umgang mit diesem Begriff,
der sich seit 2020 im Zeichen des SARS-CoV-2 durchgesetzt hat,
zum Exzess getrieben. Nirgendwo eine Überlegung
zum Verhältnis von Infektion und Erkrankung,
nirgendwo ein Gedanke daran, was die Kriterien einer Infektion
sind, wie man eine solche feststellt.
Das Immunssystem, dem
in solchen Zusammenhängen eine zentrale Rolle zukommt,
wird keiner Zeile für würdig befunden.
Noch weniger findet sich auch nur ein Ansatz zu einer kritischen Betrachtung
all dessen, was angeblich zum Schutz
vor Ansteckung unternommen wurde, oder gar
der erwähnten Computermodelle, die, was verschwiegen
wird, Prognosen lieferten, die um Größenordnungen daneben lagen.
Völlig unkritisch übernommen wird die manipulative Überdehnung
des Begriffs der Pandemie und schließlich die fragwürdige Übertragung
des Infektionsbegriffs in die Sphäre der Kommunikation
durch die Neuschöpfung Infodemie,
die aus der Verbreitung abweichender Ansichten ein Krankheitsgeschehen macht,
das es angeblich ebenso einzudämmen gelte wie eine Pandemie.
Nicht in Frage gestellt wird auch der zoonotische Ursprung
des Virus. Ein paar blasse Bemerkungen
zum menschlichen Mikrobiom
und zur Problematik von Desinfektion retten
die Sache nicht mehr.
Auch hier spiegeln die Literaturverweise,
unter denen die relevanten Titel nicht vorkommen,
die schon im Text erkenntliche unzureichende Durchdringung
der Sache.
Das Gleiche gilt auch von dem Artikel zur Epigenetik.
Der Autor ist schon unfähig,
das zentrale Dogma der Molekulargenetik korrekt wiederzugeben (150).
Wenn er glaubt, dass bei der Epigenetik »[…]
die Einsicht [grundlegend ist], dass die DNA dynamisch
auf variable Umwelteinflüsse reagiert
und entsprechend unterschiedliche Phänotypen hervorbringen kann« (151),
dann zeigt er damit, dass er nicht verstanden hat, was es damit auf sich hat.
Denn es ist gerade nicht die DNA, die »reagiert« —
die ist ein recht träges Molekül, das allein nichts
tut —, sondern die Zelle. Ähnliche Kritik lässt sich auch
an weiteren Artikeln üben. Zusammenfassend bleibt nur ein Urteil:
die Anstrengung des Begriffs hat unter deutschen Akademikern kaum noch Freunde,
hoch im Kurs steht dagegen schaumig gerührtes Zeitgeistvokabular
in pseudowissenschaftlicher Verpackung.
- Brödner, Peter (2023):
»Künstliche Intelligenz«: Dichtung und Wahrheit.
Einblicke in die Technik des Berechnens und in Mythen um Intelligenz.
Bonn: IISI — International Institute for Socio-Informatics
(international reports on socio-informatics; 20(1)).
[Online
<https://www.iisi.de/wp-content/uploads/2023/09/IRSI_V20I1.pdf>]
Eine Sammlung von Artikeln, die sich insbesondere kritisch mit der statistischen KI beschäftigen.
- Brousard, Meredith (2018):
Artificial Unintelligence: How Computers Misunderstand the World.
Cambridge MA: MIT Press.
Erklärt die Technik für Leser ohne Vorkenntnisse an einem Beispiel,
wirft einen Blick auf einige Anwendungsgebiete
und legt dar, wie »hidden bias« entsteht
der sie zu einem Mittel von Diskriminierung machen kann.
- Collins, Harry (2018):
Artifictional Intelligence: Against Humanity's Surrender to Computers.
Cambridge: Polity.
Eine detaillierte Auseinandersetzung mit der sozialen Dimension von KI,
bzw. mit dem weitgehenden Fehlen der ersteren in der lezteren,
die auch wichtige Teile der historischen KI-Diskussion rekapituliert.
Hier die wesentliche Botschaft des Autors:
»As it is, the big danger facing us is not the Singularity;
it is failing to notice computers' deficiencies when it comes
to appreciating social context and treating all consequent mistakes
as our fault. Thus, much worse, and much more pressing,
than the danger of being enslaved by enermously intelligent computers,
is our allowing ourselves to become the slaves
of stupid computers — computers that we take
to have resolved the difficult problems but that,
in reality, haven't resolved them at all:
the danger ist not the Singularity but the Surrender.« (5)
- Crawford, Kate (2021):
Atlas of AI: Power, Politics and the Planetry Costs of Artificial Intelligence.
New Haven CT: Yale University Press.
Beschäftigt sich mit den weitgehed unsichtbaren Macht- und Ausbeutungsverhältnissen
hinter der Technik.
- Dammbeck, Lutz (2023):
Seek: Der Golem geht um — Affairen zwischen Kunst, Wissenschaft und Technik.
Leipzig: Spector books.
[Seite zum Buch
<https://spectorbooks.com/book/lutz-dammbeck-seek>]
Lutz Dammbeck betreibt seit nahezu drei Jahrzehnten Forschungen, die man
als Archäologie des bis an die Schwelle
der 1980er reichenden paläokybernetischen Zeitalters bezeichnen
kann — wobei er das Feld seiner Grabungen nicht auf auf den engeren Bereich
der Techhnik begrenzt, sondern auf die Humanwissenschaften, die Künste
und deren Theorie ausdehnt, wo er immer wieder auf die Spiegelungen eines Programms
stößt, das überall
nur formbare Materie, steuerbare Subjekte ohne Subjektivitä
sieht. Deutlich wird hier auch, in welchem Ausmaß
das entsprechende Wissenschaftsprogramm durch staatliche Stellen,
nicht zuletzt das Militär, doch auch
durch sogenannte philantropische Stiftungen wie
die Josiah Macy Jr. Foundation und
die Rockefeller Foundation gefördert und beeinflusst wurde.
Die Umgestaltung der Gesellschaft nach den eigenen Vorstellungen
und die Kontrolle der Bevölkerung waren explizite Zielvorstellungen
dieses Wissenschaftsprogramms, die allerdings schon vor dem
durch Dammbeck betrachteten, in den 1940ern beginnenden Zeitraum
verfolgt wurden. Insbesondere die Rockefeller Foundation
bzw. ihre Vorläuferorganisationen förderten
unter dieser Zielsetzung
schon seit der Wende vom 19. zum 20. Jahrhundert Eugenik
— einschließlich der deutschen Rassenhygiene — und Genetik,
seit den 1930ern auch vermehrt die Erforschung
von deren molekularen Grundlagen. Dammbeck hebt
die Bedeutung des Unvollständigkeitsatzes
von Kurt Gödel hervor (116–118)). Dieses Resultat besagt,
dass es in jedem hinreichend inhaltsträchtigen formalen System,
wie z.B. in der axiomatischen Arithmetik,
semantische Folgerungen — umgangssprachlich: wahre Sätze
— gibt, die mit seinen formalen Mitteln nicht beweisbar sind.
Für die Menschheit stellt das kein Problem dar — zumindest
nicht, solnge man nicht versucht, den menschlichen Geist oder gar
den Menschen selbst, vollständig durch maschinelle Systeme
zu ersetzen, die sich völlig auf formalisiertes Wissen
und formale Ableitungen verlassen.
Doch solche Systeme werden auch schon
an ihrer Inkongruenz mit der realen Welt scheitern, bevor sie
das an Gödels Resultat tun.
Das vorliegende Werk arbeitet literarisch weiter aus,
was kinematographisch Dammbecks seit 2003 vorliegender Dokumentarfilm
Das Netz <http://www.t-h-e-n-e-t.com/>,
im Ansatz leistet.
Die Anzeichen einer zur Kontrollgesellschaft hinführenden Bewegung treten
hier noch deutlicher hervor.
Die Freude über dieses ebenso notwendige wie herausragende Buch,
das dringend erforderliche Aufklärungsarbeit leistet,
wird durch einige Ungenauigkeiten im Detail
ein wenig getrübt. Da das für manche Leser wichtig sein
mag, hier ein paar Hinweise. Dass David Hilbert kein Mitglied
des Wiener Kreises war (117)
und Kurt Gödel dort als Student zwar verkehrte,
doch in seinen philosophischen Auffassungen
nicht unbedingt mit dessen Kern \"ubereinstmmte,
dass das Institute for Advanced Studies
in Princeton nicht zur US Air Force gehörte (111)
und dass die Illustration zum Kapitel
Little Boy — das war die Uranbombe,
die Hiroshima zerstörte — tatsächlich
Fat Man zeigt (44), die Plutoniumbombe, die das Gleiche
mit Nagasaki tat, sind Kleinigkeiten.
Dass die Konstruktion solcher Bomben »[…] also nichts anderes als die Ausweitung
der experimentellen Laborphysik [war], wobei die Beschusss-Experimente
in die Größenordnung einer Zerstörungsbombe ausgedehnt wurden«
(45), geht an dem Problem, hinreichend lange eine beständige Kettenreaktion
zu erhalten, um eine Explosion zu erreichen, die solche Energien freisetzt,
weit vorbei. Das erforderte mehr als die
»die Ausweitung der experimentellen Laborphysik«
— eben ein wissenschaftliches und industrielles Megaprojekt
von zuvor nicht geesehenen Dimensionen, dessen Kosten
in heutiger Währung in die Milliarden gingen und
an dem dutzende hochkarätige Physiker, hunderte Ingenieure
und tausende Arbeiter beteiligt waren.
Dass damals
in Los Alamos bereits die Fusionsbombe auf
dem Programm gestanden hätte, trifft nicht zu.
Die war nicht viel mehr als eine fixe Idee von Edward Teller,
der damit, wie Hans Bethe, der Leiter der theoretischen Abteilung
dort, anmerkte, eher zum Hindernis für die Arbeit an
der Spaltungsbombe geworden war und deshalb von Robert Oppenheimer,
dem wissenschaftlichen Leiter des Labors,
neutralisiert wurde, indem er ihn davon abzog. Jene Idee wurde
durch eine Gruppe von Wissenschaftlern einer Prüfung unterzogen
und als beim Stand der physikalischen Erkenntnis und, noch mehr,
der verfügbaren Ressourcen für
die Berechnungen wie auch für ihre Konstruktion als jenseits
des damals Realisierbaren liegend und
vom gesetzten Ziel ablenkend zunächst
nicht weiter verfolgt.
Dass John von Neumann nicht
der Schöpfer der sogenannten von Neumann-Architektur
ist, die im EDVAC Gestalt annahm und in Form von weiteren Rechnern,
die sie verörperten, schließlich bei
der Konstruktion der Fusionsbombe
eine Rolle spielen sollte, unterliegt heute keinem Zweifel mehr.
John von Neumann verfasste lediglich
den Bericht, der diese von J. Presper Eckert
und John W. Mauchly geschaffene Rechnerarchitektur besschrieb.
Dass die Bemühungen der maßgeblichen Stellen
in den USA, um das Design einer Fusionsbombe möglichst
viel Verwirrung zu stiften, bis heute Erfolg haben,
zeigt die Annahme, »das die von der gezündeten
A-Bombe erzeugten Schockwellen den Kernbrennstoff komprimieren
und zur Explosion bringen würden« (105).
Dass das so nicht geht, war allen Sachkundigen klar.
Die Idee des erwähnten Stanislaw Ulam bestand genau darin,
das Medium und Techniken
zu seiner Beherrschung zu identifizieren,
durch die man die Energie zur Verdichtung
und, vor allem, zur Erhitzung des Kernbrennstoffs — genauer:
zu dessen Verwandlung in ein hochenergetisches Plasma —
auf diesen konzentrieren kann, bevor die durch
die A-Bombe erzeugten Schockwellen ihn auseinanderblasen.
All diese Ungenauigkeiten deuten darauf hin,
dass dieses Feld in hohem Maße
von dem Nebel verdeckt wird, der
den Legenden um legendäre Figuren
wie John von Neumann und Edward Teller entsteigt,
doch, im Fall der Fusionsbombe, auch von dem,
den staatliche Stellen
und ihre literarischen Helfer absichtlich produzieren.
,
- Deutscher Ethikrat (2023):
Mensch und Maschine — Herausforderungen durch Künstliche Intelligenz.
Berlin: Deutscher Ethikrat, 20. März.
[Online
<https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf>]
Weitschweifend und die geforderte Schärfe der Analyse oft vermissen lassend.
Manche Aussagen sind schlicht falsch und irreführend, etwa die Rede ist von der
»Trainingsphase, in der ein Algorithmus sein Modell zur Mustererkennung durch
wiederholte Analyse von Trainingsdaten aufbaut und verfeinert«.
In der Trainingsphase findet eben keine »Analyse von Trainingsdaten«
statt, sondern der Versuch, diese durch Anpassung von Parametern
— der Gewichte in den Netzkanten — zu reproduzieren.
Solche Aussagen verleiten dazu, in die Systeme eine Intelligenz zu projizieren
— die Systeme hätten schließlich eine »Analyse«
der Daten vorgenommen —, die dort nicht zu finden ist.
- Esposito, Elena (2024):
Kommunikation mit unverständlichen Maschinen.
Wien: Residenz Verlag.
Ein entleerter Begriff von Kommunikation findet hier mit Projektionen zusammen,
um ein phantastisches Bild der KI zu erzeugen.
Manches liest sich wie eine Halluzination eines LLMs:
»Maschinen entscheiden selbst, was sie lernen und wie sie es lernen.
Bei Techniken wie Deep Learning lernen Algorithmen,
ihre Aufgaben auf eine Art zu erfüllen,
die von den Pogrammierer:innen nicht beabsichtigt war
und die für Menschen, einschließlich jener,
die sie entwickelt haben, oft unverständlich ist.« (24)
Noch toller wird es, wennn Esposito von
»einer komplexen Art und Weise, den Anweisungen
der Pogrammierer:innen in einer Vielzahl verschiedener Dimensionen
zu folgen« (39) spricht.
Computer folgen den Anweisungen der Programme immer
in derselben deterministischen Weise und »Entscheidungen«
treffen sie ebenso nach Maßgabe der Anweisungen
auf Basis der vorliegenden Daten.
Wenn das nicht der Absicht der Pogrammierer entspricht,
dann haben sie einen Fehler gemacht.
D.h. den »Entscheidungen« von Computern wohnt weder
Deliberation bzw. Abwägung noch Willkür inne,
sondern sie erfolgen rein mechanisch.
Das Problem mit der statistischen KI besteht nicht darin,
dass man nicht verstehen könnte,
wie die betreffenden Algorithmen funktionieren,
sondern darin, dass ihre Funktionsweise mit dem Gegenstand
der Berechnungen nicht das Geringste zu tun hat.
- Hirsch-Kreinsen, Hartmut (2023):
Das Versprechen der Künstlichen Intelligenz:
Gesellschaftliche Dynamik einer Schlüsseltechnologie.
Frankfurt am Main: Campus.
Eine informative wissenschafts- und techniksoziologische Studie,
die insbesondere die Situation in der BRD beleuchtet.
- Kurzweil, Ray (2024):
The Singularity is Nearer: When We Merge with AI.
New York NY: Viking.
Das vorläufig letzte Buch des Künders der Singularity.
- Marcus, Gary (2024):
Taming Silicon Valley:
How We Can Ensure that AI Works for Us.
Cambridge MA: MIT Press.
Gary Marcus, Neurowissenschaftler und KI-Forscher,
ist einer der schärfsten und profundesten Kritiker
des gegenwärtigen Enthusiasmus für KI
und unsbesondere dessen für
die sogenannten Large Language Models (LLM).
Wer seine E-Mail-Postings kennt,
wird hier vieles davon an einem
Ort systematisch geordnet finden,
wer dies nicht tut,
wird einiges entdecken können.
- Marcus, Gary; Davis, Ernest (2019):
Rebooting AI:
Building Artificial Intelligence We Can Trust.
New York NY: Vintage.
Eine kritische Darstellung von zwei Insidern, die mit dem Stand der KI höchst unzufrieden sind,
doch die Hoffnung auf Besserung nicht aufgegeben haben.
- Nowotny, Helga (2021):
In AI We Trust:
Power, Illusion and Control of Predictive Algorithms.
Cambridge: Polity.
Eine Darstellung mit vielen interessanten Details, die jedoch ein irreführendes Bild der Technik zeichnet.
Die Tatsache, dass die Algorithmen der statistischen KI lediglich die Reproduktion einer Trainingsmenge
von Input-Output-Paaren optimieren und nicht etwa in korrigierbarer Weise unmittelbar irgendwelche
von Menschen formulierten Ziele anstreben, »biased results« also das Ergebnis von »biased data«
und der rein statistisch-assoziativen Arbeitsweise der Systeme sind, wird nicht deutlich.
Illusionär ist auch die von der Autorin verbreitete Hoffnung, die auf der aktuellen Technik
basierten Systeme würden sich irgendwie »lernend« an die Menschheit anpassen.
- Nowotny, Helga (2023):
Die KI sei mit euch:
Macht, Illusion und Kontrolle algorithmischer Vorhersage.
Berlin: Matthes & Seitz.
Deutsche Übersetzung des obigen Titels.
- O'Neil, Cathy (2016):
Weapons of Math Destruction:
How Big Data Increases Inequality and Threatens Democracy.
New York NY: Crown.
[Online
<https://edisciplinas.usp.br/pluginfile.php/7574239/mod_resource/content/1/%28FFLCH%29%20LIVRO%20Weapons%20of%20Math%20Destruction%20-%20Cathy%20ONeal.pdf>]
Hier geht es vor allem um die vielfältigen Weisen, in denen die Methoden der statistischen KI das Bild der Welt verzerren
und soziale, rassische und geschlechtliche Diskriminierung hervorbringen.
- Pasquinelli, Matteo (2023):
The Eye of the Master:
A Social History of Artificial Intelligence.
London: Verso.
Der Titel verspricht deutlich mehr als das Buch hält.
Dieses bringt sehr viel zu dem, was es als Frühgeschichte
der Automatisierung auffasst, und auch einiges
zu den Anfängen der Neuronalen Netze, während
das große Feld der KI im weiteren Sinne weitgehend unbeachtet bleibt.
Es bietet viele interessante Details, leidet jedoch unter
einer angespannten Bemühung zur Übertheoretisierung der Dinge,
die einen fetischisierten Begriff von Wert mit extrem reduzierten von Arbeit
verbindet, um bei einer aufgeblähten Vorstellung der aktuellen KI zu landen,
die alles erdenkliche auf sie projiziert:
»In conclusion, machine learning can be seen as the project
to automate the very process of machine design and model making
— which is to say, the automation of the labour theory of
automation itself. In this sense
machine learning, specifically, large foundation models represent
a new definition of the Universal Machine, for their capacity is not
just to perform computational tasks but imitate labour
and collective behaviours at large.« (248)
Was sich hier in höchst überspannter Form äußert,
ist das exakte Gegenteil eines anzustrebenden präzisen
Verständnisses der Sache.
- Pohle, Jörg; Lenk, Klaus; Fischbach, Rainer (Hrsg.) (2024):
Die gesellschaftliche Macht digitaler Technologien:
Zwischen Wellen technologischen Überschwangs und den Mühen der Ebene.
Marburg: Metropolis.
[Seite zum Buch
<https://www.metropolis-verlag.de/Die-gesellschaftliche-Macht-digitaler-Technologien/1565/book.do>]
- Smith, Gary (2018):
The AI Delusion.
Oxford: Oxford University Press.
Legt insbesondere die Fallstricke statistischer Methoden dar.
Varoufakis, Yanis (2023):
Technofeudalism: What Killed Capitalism.
London: The Bodley Head.
Yanis Varoufakis versucht hier, seinem Vater, dem er dieses Buch widmet,
die Veränderungen zu erklären, denen die globale Ökonomie
im letzten Jahrzehnt unterworfen war. Er knüpft dabei an sein letztes
Buch The Global Minotaur an, in dem er die
mit diesem Bild charakterisierten Mechanismen unteruchte,
die zum Crash von 2007/2008 mit der nachfolgenden Finanzkrise trieben.
Neu an der gegenwärtigen Situation sei, dass die Kräfte dieser
Mechanismen nachließen — was die Dominanz
des Dollars und des US-Finanzsektors beeinträchtige, während es die
Macht Chinas stärke. Entscheidenden Anteil daran hätten
— neben geopolitischen Faktoren —
das Internet, die elektronischen Zentralbankwährungen (163),
die digitalen Plattformen und die, nicht zuletzt auf KI basierten, Dienste,
die dort zunehmend eine Rolle spielten. Varoufakis sieht
hier eine neue Konstellation, in der die Aneignung
von Daten, die die persönlich Identität definieren,
durch die Plattformen und die dadurch ermöglichte Abschöpfung
von Renten die klassischen kapitalistischen Verhältnisse verdrängten.
Daher der Titel Technofeudalism, der jedoch nicht exakt trifft:
das System der Wegezölle, auf das er anspielt, charakterisierte eben
nicht die feudalen Produktonsverhältnisse,
sondern stellte eine parasitäre Konstellation
dar, in der feudale Land- und Wasserrechte im Verein
mit der Disposition über Gewaltmittel die Ausbeutung
der sich herausbildenden frühkapitalistischen Produktions-
und Distributionsnetze durch geistliche
und weltliche Herren ermöglichten. Sprichwörtlich dafür
die Bezeichnung "Pfaffengasse" für den Rhein,
an dem, von Chur bis Köln, geistliche Herren
die Hand aufhielten.
Er sieht die Gefahr nicht in der
oft beschworenen Singularity, dem Ereignis, das uns Maschinen
mit übermenschlicher Inzelligenz bescheren würde:
»The problem with this storyline is that,
by emphasizing a non-existent threat, it leaves us exposed
to a very real danger«. Die Gefahr in all den KI-Helfern,
die sich uns zunehmend aufdräntgen, liege woanders:
»It matters not one iota that they are mindless appendages
to a data-crunching network that only simulates intlligence.
Nor that their creators might have been motivated more
by curiosity and profit-seeking, rather than some fiendish
plan to subjugate humanity. What matters is that
they exercise unimaginable power over what we do —
on behalf of a tiny band of flesh-and-blood humans« (66).
Varoufakis vermag, wie gewohnt, die Veränderungen
des globalen Kapitalismus eloquent und farbig
zu beschreiben.
Ein kleiner Fehler — der Plaza Accord hätte
die Abwertung des Yen beinhaltet (156), während tatsächlich
das Gegenteil der Fall war — ist verzeihlich.
Was er dagegen über die Entstehung des Internet schreibt
— er wiederholt (69) die Legende vom atomkriegsresistenten Netz
— ist teilweise falsch, was er über die Technik der
KI schreibt (75–78)), ist größtenteils Unsinn.
Z.B. Neuronale Netze werden nicht in der Hardwarearchitektur realisiert,
sondern durch Software, die gegebenenfalls von spezieller, paralleler Hardware
für Vektoroperationen profitiert, und es sind —
ein Missverständnis das schon Legion ist — nicht die Algorithmen,
die lernen.
- Weizenbaum, Joseph (1977):
Computer Power and Human Reason. From Judgment to Calculation.
New York NY: Freeman.
Gehört zu den klassiischen Texten der Kritik an Computertechnik und KI.
- Weizenbaum, Joseph (1978):
Die Macht der Computer und die Ohnmacht der Vernunft.
Frankfurt am Main: Suhrkamp.
Deutsche Übersetzung des vorigen Titels.
- Weizenbaum, Joseph; Wendt, Gunna (2006):
Wo sind sie, die Inseln der Vernunft im Cyberstorm?
Auswegge aus der programmierten Gesellschaft.
Freiburg im Breisgau: Herder.
Umfangreiches Interview zu Weizenbaums Biographie und seinen Positionen zur IT und KI.
- Wildenhain, Michael (2024):
Eine kurze Geschichte der künstlichen Intelligenz.
Stuttgart: Cotta.
Begrifflich nicht immer ganz scharf, aber in aller seiner Kürze informativ und unterhaltsam.
- Wolfram, Stephen (2023):
What is ChatGPT Doing … and Why Does It Work?.
Champaign IL: Wolfram Media.
Ein Versuch, Lesern ohne spezifische Vorkenntnis
die Technik hinter der gegenwärtig populärsten KI-Anwendung verständlich zu machen,
der jedoch einige von deren Mystifikationen reproduziert.
Artikel und Papiere zur technischen, politischen und sozialwissenschaftlichen Diskussion
- Acemoglu, Daron (2024):
The Simple Macroeconomics of AI.
Cambridge MA: National Bureau of Economic Research (NBER Working Paper; 32487).
[Online
<https://doi.org/10.3386/w32487>]
Nimmt die heiße Luft aus manchen Erwartungen zu den Produktivitätssteigerungen durch KI..
- Ananya (2024):
»AI image generators often give racist and sexist results: can they be fixed?«.
Nature 627, 722–725, 19. März.
[Online
<https://doi.org/10.1038/d41586-024-00674-9>]
Wie Problem der »biased results« aus der Welt zu schaffen wäre, bleibt unklar.
- Blome, Titus (2024):
»Zur KI-Sonne, zur Freiheit«.
der Freitag 17, 25. April, 14.
[Online
<https://www.freitag.de/autoren/titus-blome/zur-ki-sonne-zur-freiheit>]
Auf der ersten Seite großmäulig angekündigt mit dem Versprachen zu verraten,
»Wie wir mit KI die Bosse besiegen«, bietet dieser Artikel nicht mehr als
die x-te Kurznacherzählung längst bekannter Dys- und Utopien,
die er mit ebenso alten Missverständnissen verbindet.
Wenn ein Neuronales Netz Schwarze nicht als Menschen erkennt,
ist das kein »algorithmisches Vorurteil« sondern Folge
von »biased selection« der Trainingsdaten.
Wer eine konkrete Analyse oder gar fundierte Handlungsperspektiven erwartet,
wird enttäscht. Leider charakteristisch für den Umgang mit dem Thema
in einer zur bloßen Dekoration des politischen und medialen Systems verkommenen Linken.
- Chu, Amanda (2024):
»US slows plans to retire coal-fired plants as power demand from AI surges«.
Financial Times, 30. Mai.
[Online
<https://www.ft.com/content/ddaac44b-e245-4c8a-bf68-c773cc8f4e63>]
Ein weiteres Licht auf den wachsenden Energiehunger der KI-Anwendungen.
- Dath, Dietmar (2024): »Wer 'die KI' sagt, ist schon reingefallen«.
Jacobin, 20. Juni.
[Online
<https://www.jacobin.de/artikel/ki-facharbeit-klassenkampf-dietmar-dath>]
Eine Reihe etwas holzschnittarig zusammengefasster,
doch grundsätzlich interessanter Beobachtungen,
die dann auf die bekannte Dath-Folie abgezogen werden:
'an sich' könnten Maschinen
die Welt menschlicher machen, sogar kreativ sein, aber — wie
zu erwarten — geschieht das nicht, solange des Kapital regiert.
Das klingt alles très chic,
bleibt aber theoretisch wie praktisch fruchtlos.
- Eppinger, Ute (2024):
»TU-München macht Realitätscheck für KI in der Notaufnahme:
In der Theorie gut, aber in der Praxis "noch sehr schlecht"«.
Medscape, 14. August.
[Online
<https://deutsch.medscape.com/artikelansicht/4914058>]
In der referierten Studie schnitt ein LLM im direkten Vergleich
mit der ärztlichen Expertise deutlich schlechter ab als diese.
Die oft geörten Aussagen, denen zufolge die KI treffendere
und präzisere Urteile fälle als menschlich Experten
und diese bald ersetzen werde, scheinen doch etwas zu vollmundig zu sein.
- Fischbach, Rainer (2020a): »Die neuen Fiktionen der EU-Politik«.
Makroskop 47, 1. Dezember.
[Online
<https://makroskop.eu/47-2020/ki-die-neuen-fiktionen-der-eu-politik/>]
- Fischbach, Rainer (2020b): »Mythos Maschinenlernen«.
Makroskop 48, 8. Dezember.
[Online
<https://makroskop.eu/48-2020/mythos-maschinenlernen/>]
- Fischbach, Rainer (2020c): »KI als Placebo-Strategie«.
Makroskop 49, 15. Dezember.
[Online
<https://makroskop.eu/49-2020/ki-als-placebo-strategie/>]
- Fischbach, Rainer (2024):
»Intelligenz-Wunderwelt: Wer daran glaubt, darf sich nicht wundern«.
Makroskop 22, 27. Juni.
[Online
<https://makroskop.eu/22-2024/intelligenz-wunderwelt-wer-daran-glaubt-darf-sich-nicht-wundern/>]
- Gibney, Elizabeth (2022):
»Could machine learning fuel a reproducibility crisis in science?«.
Nature 608, 250–251, 26. Juli.
[Online
<https://doi.org/10.1038/d41586-022-02035-w>]
Methodisch unangemessen eingesetzte ML-Techniken führen zu Massen an peer-reviewed Studien,
deren Ergebnisse sich nicht reproduzieren lassen.
- Gibney, Elizabeth (2024):
»AI models fed AI-generated data quickly spew nonsense«.
Nature 632, 18–19, 24. Juli.
[Online
<https://doi.org/10.1038/d41586-024-02420-7>]
In den Worten der Autorin:
Researchers gave successive versions of a large language model
information produced by previous generations of the
AI — and observed rapid collapse.
- Gross, Grant (2024):
»Generative AI gold rush drives IT spending — with payoff in question«.
CIO, 19. April.
[Online
<https://www.cio.com/article/2093481/generative-ai-gold-rush-drives-it-spending-with-payoff-in-question.html>]
Die KI-Welle treibt die Investitionen in IT-Hardware und Software steil nach oben,
während unklar bleibt, ob sie auch lohnen werden.
- Herrmann, Thomas; Pfeiffer, Sabine (2023):
»Keeping the Organization in the Loop: A Socio-Technical Extension of Human-Centered Artificial Intelligence«.
AI & Society 38, 1523–1542.
[Online
<https://doi.org/10.1007/s00146-022-01391-5>]
- Hughes, Jennifer; Megaw, Nicholas (2024):
»Tech reversal pushes US megacaps into correction territory«.
Financial Times, 26. Juli.
[Online
<https://www.ft.com/content/f84e1d42-8c01-4c61-ad4c-7865ab4da4e6>]
Zweifel an der Tragfähigkeit der aktuellen KI-Welle, insbesondere
am Return der gigantischen Investitionen, führen jetzt zu Kurskorrekturen.
- Kinder, Tabby (2024):
»Wall Street frenzy creates $11bn debt market for AI groups buying Nvidia chips«.
Financial Times, 4. November.
[Online
<https://www.ft.com/content/41bfacb8-4d1e-4f25-bc60-75bf557f1f21>]
Milliarden Dollar, finanziert durch Kredite, werden derzeit in Rechenzentren investiert,
die vor allem Massen an Nvidia-Graphikprozessoren für
KI-Anwendungen, genauer: Maschinenlernen, bereitstellen.
Die Hardware und die Nutzungsverträge werden
zur Absicherung hinterlegt. Fraglich ist allerdings, welchen
Wert die rasch veraltende Hardware nach zwei Jahren haben wird,
und welchen die Verträge, sollten sich die Erwartungen
in den KI-Boom enttäscht werden.
An der Wall street wächst
die Furcht vor einer Kreditblase bzw. deren Platzen.
- Mance, Henry (2024):
»AI keeps going wrong. What if it can't be fixed?«
Financial Times, 6. April.
[Online
<https://www.ft.com/content/648228e7-11eb-4e1a-b0d5-e65a638e6135>]
Zweifel an der Tragfähigkeit der aktuellen KI-Welle haben auch den Finanzsektor erreicht.
- Marcus, Gary (2022):
»Deep Learning Is Hitting a Wall«.
Nautilus, 10. März.
[Online
<https://nautil.us/deep-learning-is-hitting-a-wall-238440/>]
Gary Marcus sieht Grenzen der Skalierbarkeit von ML-Systemen.
Mehr Daten bringen keine qualitativ besseren Ergebnisse.
- Marcus, Gary (2024):
»OpenAI™'s new text-to-video app is impressive, at first sight. But those physics glitches…«.
Bulletin of the Atomic Scientists, 16. Februar.
[Online
<https://thebulletin.org/2024/02/openais-new-text-to-video-app-is-impressive-at-first-sight-but-those-physics-glitches/>]
Gary Marcus analysiiert die vielen Fehler im Output des OpenAI Video-Bots, aus denen klar hervorgeht, dass von Intelligenz nicht die Rede sein kann.
- McCormick, Myles; Smyth, Jamie; Chu, Amanda (2024):
»AI revolution will be boon for natural gas, say fossil fuel bosses«.
Financial Times, 1. April.
[Online
<https://www.ft.com/content/1f93b9b2-b264-44e2-87cc-83c04d8f1e2b>]
Wirft ein Licht auf den wachsenden Energiehunger der KI-Anwendungen.
- Parshley, Lois (2024):
»The Hidden Environmental Impact of AI«.
Jacobin, 20. Juni.
[Online
<https://jacobin.com/2024/06/ai-data-center-energy-usage-environment>]
Ein weiteres Licht auf den wachsenden Ressourcenverbrauch der KI.
- Pfeiffer, Sabine (2023):
»KI im Unternehmen — Herausforderungen an die betriebliche Gestaltung moderner Arbeit«.
DGUV Forum 11, 36–41.
[Online
<https://forum.dguv.de/ausgabe/11-2023/artikel/ki-im-unternehmen-herausforderungen-an-die-betriebliche-gestaltung-moderner-arbeit>]
- Rouch, Maeghan; Denman, Aaron; Hanbury, Peter; Renno, Paul; Gray, Ellyn (2024):
»Utilities Must Reinvent Themselves to Harness the AI-Driven Data Center Boom«.
Bain & Company, 10. Oktober.
[Online
<https://www.bain.com/insights/utilities-must-reinvent-themselves-to-harness-the-ai-driven-data-center-boom/>]
Die KI wird als Haupttreiber eines in den kommenden Jahren zu erwartenden, steilen Anstiegs
des Elektrizitätsbedarfs gesehen.
- Sohn, Emily (2023):
»The reproducibility issues that haunt health-care AI«.
Nature 613, 402–403, 12. Januar.
[Online
<https://doi.org/10.1038/d41586-023-00023-2>]
Das Problem der nicht reproduzierbaren Ergebnisse spart die Medizin nicht aus.
- Steyerl, Hito (2023):
»Common Sensing? Machine Learning, 'Enchatment' and Hegemony«.
New Left Review 144, November/Dezember.
[Online
<https://newleftreview.org/issues/ii144/articles/hito-steyerl-common-sensing>]
Ein Beispiel für die um sich greifende Unart, etwas zu interpretieren, bevor
man es verstanden hat. Wenn Hito Steyerl meint,
»much of this sounds as though Gramsci were describing
the latent space of a machine-learning model«, wäre man glücklich,
wenn einem irgend jemand erklären könnte, was das ist,
»the latent space of a machine-learning model«.
Diese Formulierung wird in von einigen KI-Zirkeln, jedoch
nicht allgemein verwendet. Der Begriff heißt korrekt
"latent manifold" und stammt aus der Topologie. Gemeint ist damit die Einbettung
einer Menge von Punkten aus einer vieldimensionalen Manigfaltigkeit in eine
von weniger Dimensionen, um sie dort besser handhabbar zu machen.
Vom Gelingen dieser dimensionalen Reduktion, als die sich
das Maschinenlernen mathematisch beschreiben lässt,
ist dessen Erfolg abhängig.
Hito Steyerl bringt es unerhört beredt fertig, total zu verschwurbeln,
was als Problem des Common Sense in der KI als tatsächlich harte Nuss existiert.
Denn es geht dabei genau um Merkmale von Objekten bzw. Relationen zwischen solchen,
die dieser dimensionalen Reduktion bisher widerstehen, also in
der latenten Manigfaltigkeit nicht abgebildet sind.
Um das sachlich zu diskutieren, müsste man nicht einmal, was in der NLR wohl
ein Muss ist, signalisieren, dass man Gramsci für einen unerlässlichen Referenzpunkt
jeglicher Debatte hält.
Die Schwäche von Steyerls Text besteht darin, dass sie alles durcheinanderwirft,
um ein (pseudo)kritisches Monumentalgemälde der KI zu entwerfen.
Sie hat den methodischen Sinn dessen, was in der wissenschaftlichen Diskussion
in der und um die KI als Problem des Common Sense diskutiert
wird, überhaupt nicht verstanden und stellt es deshalb in einen viel
zu weiten Kontext, in dem dieser durchaus präzise Sinn völlig untergeht.
Es geht dabei nicht um einen geheimnisvollen »latent space of a machine-learning model«; weshalb
das Gramsci-Zitat ebenso deplaciert ist wie ihre weiteren Ausführungen dazu.
Hinter dem Problem des Common Sense steckt das wissenschaftstheoretische
der Induktion bzw. das der beschränkten empirischen Basis,
auf der induktive Verallgemeinerungen, die auch den Kern des
ML ausmachen, stattfinden. Unter Common Sense versteht
man in diesem Zusammenhang das meistens nicht explizit gegebene Wissen,
über das wir verfügen, etwa darüber, dass Vögel,
die angekettet sind, nicht wegfliegen können, oder dass Menschen ohne
Kopf — sieht man einmal von der Störtebecker-Legende ab — nicht
mehr gehen können, das uns vor falschen Induktionen bewahrt,
doch auch davor zu glauben, dass Leute, die den Kopf verloren haben — etwa
nach all dem Begriffschaos um KI — etwa tot seien.
Das ARPA-Projekt, das Steyerl erwähnt, galt genau diesen Problemen
und erwies sich als Fehlschlag.
- Thornhill, John (2024):
»Huge AI funding leads to hype and "grifting", warns DeepMind's Demis Hassabis«.
Financial Times, 31. März.
[Online
<https://www.ft.com/content/774901e5-e831-4e0b-b0a1-e4b5b0032fb8>]
Eine Warnung vor Überinvestition in KI, die zu einer Blase führen könnte.
- Tsakiridou, Eve (2023): »ChatGPT: Nur ein stochastischer Papagei?«.
Makroskop 23, 7. Juli.
[Online
<https://makroskop.eu/23-2023/chatgpt-nur-ein-stochastischer-papagei/>]
Ein Interview mit Ute Schmid, Professor
für kognitive Systeme an der Universität Bamberg,
das einige der Mystifikationen um die Technik erhellt.
- Waters, Richard; Bradshaw, Tim (2024):
»Wall Street frets over Big Tech’s $200bn AI spending splurge«.
Financial Times, 1. November.
[Online
<https://www.ft.com/content/dc5b40cb-e446-4e2b-9faf-2d54720b33d8>]
An der Wall street wächst die Sorge, ob die massiven Investitionen, insbesondere
in KI und entsprechende Hardware,
der Techkonzerne, die sich 2024 auf ca. 200 Milliarden Dollar summieren,
eine angemessene Rendite bringen werden.
- Wenger, Emily (2024):
»AI produces gibberish when trained on too much AI-generated data«.
Nature 631, 742–743, 24. Juli.
[Online
<https://doi.org/10.1038/d41586-024-02355-z>]
Was geschieht, wenn der Inhalt, mittels dessen Systeme trainiert werden,
zu einem wachsenden Teil von ihnen selbst produziert wurde?
Es zeichnet sich die Gefahr ab, dass sie kollabieren.
In den Worten der Autorin,
die einen längeren Fachartikel zusammenfasst:
Generative AI models are now widely accessible, enabling everyone
to create their own machine-made something.
But these models can collapse if their training data sets contain
too much AI-generated content.
Philosophische und epistemologische Fragen
- Anderson, Alan Ross (Hrsg.) (1964):
Minds and Machines.
Englewood Cliffs NJ: Prentice-Hall (Contemporary Perspectives in Philosophy Series).
Dieser Band vereinigt einige der frühen klassischen Texte zum Thema,
u.a. auch Alan Turings »Computing Machinery and Intelligence«.
- Baumgartner, Peter; Payr, Sabine (Hrsg.) (1995):
Speaking Minds: Interviews with Twenty Eminent Cognitive Scientists.
Princeton NJ: Princeton University Press.
Ansichten aus erster Hand zur menschlichen Intelligenz und ihrer maschinellen Imitation.
- Dreyfus, Hubert L. (1992 [1972, 1979]):
What Computers Still Can't Do: A critique of Artificial Reason.
Cambridge MA: MIT Press.
Einer der klassischen Texte zur Kritik der KI.
Dreyfus setzt sich vor allem mit dem Problem der Kontextabhängigkeit
von'sprachlichen Äußerungen auseinander und formuliert die These,
dass menschlicher Geist nur in einem menschlichen Organismus
entstehen und leben könne.
- Epstein, Robert (2016):
»The empty brain«.
Aeon, 18. Mai.
[Online
<https://aeon.co/essays/your-brain-does-not-process-information-and-it-is-not-a-computer>]
Eine fundamentale Kritik aller Konzepte, die menschliches Bewusstsein
als Informationsverarbeitung auf Basis symbolischer Repräsentationen verstehen.
Vertiefend dazu Reber, Baluška, Miller (2023).
- Fischbach, Rainer (2020d):
»Big data — big confusion: Weshalb es noch immer keine künstliche Intelligenz gibt«.
Berliner Debatte Initial,
H. 1, 2020. 136–147.
[Online
<https://www.academia.edu/64910746/Big_Data_Big_Confusion_Weshalb_es_immer_noch_keine_k%C3%BCnstliche_Intelligenz_gibt>]
- Fischbach, Rainer (2020e): »Metaphorische und reale Maschinen:
Ein Vorschlag zum Verständnis von und zum Umgang mit Informationstechnik«.
In: Peter Brödner / Klaus Fuchs-Kittowski (Hrsg.):
Zukunft der Arbeit: Soziotechnische Gestaltung der Arbeitswelt im Zeichen von »Digitalisierung« und »Künstlicher Intelligenz«;
Tagung der Leibniz-Sozietät am 13. Dezember 2019 in Berlin, Hochschule für Technik und Wirtschaft,
Berlin: trafo Wissenschafsverlag, 2020, 41–59,
ISBN 978-3-86464-219-7.
[Seite zum Buch
<http://www.trafoberlin.de/978-3-86464-219-7.html>]
- Larson, Eric J. (2021):
The Myth of Artificial Intelligence:
Why Computers Can't Think the Way We Do.
Cambridge MA: Harvard University Press.
Im Mittelpunkt dieses Werks stehen die weitgehend ungelösten epistemologischen Fragen der KI,
die vor ihrem philosophischen Hintergrund beleuchtet werden.
- Marcus, Gary (2018):
»Deep Learning: A Critical Appraisal«.
arΧiv:1801.00631.
[Online
<https://doi.org/10.48550/arXiv.1801.00631>]
Durchleuchtet die Arbeitsweise tiefer Neuronaler Netze und die darin begründeten Grenzen der Technik.
- Messeri Lisa; Crocket, M. J. (2024):
»Artificial intelligence and illusions of understanding in scientific research«.
Nature 627, 49–58, 6. März.
[Online
<https://doi.org/10.1038/s41586-024-07146-0>]
Der verführerische Glaube etwas zu verstehen, was man nicht versteht,
verbindet sich allzu leicht mit dem Einsatz von KI.
- Penrose, Roger (1989):
The emperor's New Mind: Concerning Computers, Minds, and the Laws of Physics.
Oxford: Oxford University Press.
Der Mathematiker und Physik-Nobelpreisträger Roger Penrose
stellt grundsätzlich in Frage, dass der menschliche Geist,
dass Bewusstsein und bewusstes Denken durch symbolische —
und das schließt algorithmische ein — Systeme repräsentierbar sei.
In diesem Buch holt er sehr weit aus, um die mathematischen, physikalischen
und weiteren wissenschaftlichen Grundlagen seiner Argumentation wenigstens
halbformal darzustellen. Ganz nebenbei bekommt der Leser dabei einiges von
den theoretischen Grundlagen der Informatik und der Physik geliefert.
- Penrose, Roger (1997):
The Large, the Small and the Human Mind.
Cambridge: Cambridge University Press.
Hier trägt Penrose seine Argumentation noch einmal komprimiert vor
und tritt in eine Diskussion ein mit weiteren Wissenschaftlern
wie Nancy Cartwright und Stephen Hawking.
- Polanyi, Michael (1969):
Knowing and Being.
Chicago IL: University of Chicago Press.
Der Chemiker und Wissenschaftsphilosoph Michael Polanyi
(Bruder des als Wirtschaftshistoriker ungleich bekannteren Karl Polanyi)
legte schon früh die Situiertheit
und die oft kaum explizierbare Weise allen Wissens
und aller Kompetenz im Leben und im praktischen Handeln dar,
die alle Versuche, sie unabhängig davon zu objektivieren,
zur Vergeblichkeit verdammt.
Teil 3 dieser Sammlung enthält einige klassische Aufsätze dazu.
- Putnam, Hilary (1981):
Reason, Truth and History.
Cambridge: Cambridge University Press.
Putnam entwickelt hier das Gedankenexperiment der Brains in a Vat
und weist die Annahme zurück, Computer könnten, selbst in einem
bestandenen Turingtest, tatsächlich etwas über die Welt aussagen.
In seinen späteren Werken entwickelt er diese Position systematisch.
- Putnam, Hilary (1982):
Vernunft, Wahrheit und Geschichte.
Frankfurt am Main: Suhrkamp.
Deutsche Übersetzung des vorigen Titels.
- Putnam, Hilary (1988):
Representation and Reality.
Cambridge MA: MIT Press.
Putnam, der in den 1960ern mit der funktionalistischen Hypothese,
die besagt, dass das menschliche Gehirn als (beschränkte) Realisierung
einer Turingmaschine aufgefasst werden könne und umgekehrt jede
derartige Maschine auch Bewusstsein haben müsse, die theoretische Grundlage
der starken KI gelegt hat, blickt hier kritisch und systematisch
auf seine früheren Positionen
und deren seitherige Entwicklung zurück. Insbesondere verneint er die,
dass symbolische Repräsentationen unabhängig von einem Kontext,
in dem eine Bezugnahme stattfinde, eine intrinsische Bedeutung zukomme.
Bedeutung sei holistisch, sozial und historisch.
- Putnam, Hilary (1992):
Renewing Philosophy.
Cambridge MA: Harvard University Press.
Hier kommt Putnam noch einmal konzentriert auf die KI
und das Geist-Körper-Problem zurück.
Bewusstsein und geistige Leistungen seien untrennbar
mit der physischen und sozialen Existenz des Menschen verbunden:
»The question that won't go away is how much of what we call
'intelligence' presuposes the rest of human nature.« (13)
- Reber, Arthur S.; Baluška, František; Miller, William B. (2023):
The Sentient Cell: The Cellular Foundations of Consciousness.
Oxford: Oxford University Press.
KI ist hier ein Randthema — vor allem, weil die Autoren hier einen alternativen Ansatz
zum Verst\"andnis von Wahrnehmung und Bewusstsein entwickeln: beides bedürfe weder eines
Nervensystems noch symbolischer Informationsverarbeitung, sondern vielmehr wenigstens einer
lebenden Zelle; weshalb die Versuche aus der KI-Szene,
eine artificial general intelligence zu kreieren, verfehlt seien.
Als Hinführung dazu eignet sich Epstein (2016).
- Searle, John (1991 [1984]):
Minds, Brains and Science: The 1984 Reith Lectures.
London: Penguin.
Ebenfalls einer der klassischen Texte zur Kritik der KI.
Er enthält das berühmte Chinese Room Argument.
Ähnlich wie Dreyfus sieht Searle das Bewusstsein und seine Aktivitäten
als Produkte des Organismus: »brains cause minds« (40)
Fachbücher
- Chaudhury, Krishnendu (2024):
Math and Architectures of Deep Learning.
Shelter Island NY: Manning.
[Seite zum Buch
<https://www.manning.com/books/math-and-architectures-of-deep-learning>]
Anschauliche Darstellung der mathematischen Grundlagen und der Systemkonzepte
mit Programmbeispielen in Python.
- Chollet, François (2021):
Deep Learning with Python.
2. Aufl., Shelter Island NY: Manning.
[Seite zum Buch
<https://www.manning.com/books/deep-learning-with-python-second-edition>]
Eine »hands-on«-Einführung in die Technik des Maschinenlernens mit tiefen Neuronalen Netzen,
verfasst von einem der führenden Experten auf diesem Gebiet, der Autor der Keras-API zu den
Tensorflow-Bibliotheken von Google ist, die darin Anwendung finden.
Setzt die Kenntnis der Programmiersprache Python und deren Module
für wissenschaftliches Rechnen und Visualisierung (Pandas, Numpy, Matplotlib) voraus.
- Deisenroth, Marc Peter; Faisal, A. Aldo; Ong, Cheng Soon (2020):
Mathematics for Machine Learning.
Cambridge: Cambridge University Press.
Anschauliche und kompakte Darstellung.
- Hardt, Moritz; Recht, Benjamin (2023):
Patterns, Predictions, and Actions: Foundations of Machine Learning.
Princeton NJ: Princeton University Press.
[Online <https://mlstory.org/pdf/patterns.pdf>]
Eine tiefgehende Darstellung der Grundlagen
von »supervised learning«, deren Stärke darin besteht, dessen Grundgedanken
in Zielsetzung und Methodik — Mustererkennung einerseits
und Optimierung einer gegebenen, Datenpunkte approximierenden Funktion
als Mittel dazu andererseits — konsequent
bis in ihre technischen Verästelungen
bzw. Varianten hinein zu verfolgen.
Auf einer Veranstaltung des Wissenschaftszentrums Berlin (WZB)
am 14. Juni 2024 charakterisierte Moritz Hardt die gegenwärtige
KI als getrieben von der Devise »anything goes« — nämlich
beim »tuning« der Systeme mit dem Ziel, bei den angesagten »benchmarks«
wie, z.B. ImageNet auf dem Gebiet des Bilderkennens, möglichst
gut abzuschneiden.
Der Band setzt mathematische Kenntnisse (Lineare Algebra, Tensoranalysis, Statistik) voraus,
die z.B. das Buch von Chaudhury vermittelt.
- Jiang, Hui (2021):
Machine Learning Fundamentals: A Concise Introduction.
3. Aufl., Cambridge: Cambridge University Press.
[Seite zum Buch
<https://doi.org/10.1017/9781108938051>]
Eine umfassende Darstellung der Grundlagen.
Setzt mathematische Kenntnisse (Lineare Algebra, Tensoranalysis, Statistik) voraus.
- Poole, David L.; Mackworth, Alan K. (2023):
Artificial Intelligence: Foundations of Computational Agents.
3. Aufl. Cambridge: Cambridge University Press.
Ein umfassendes und profundes Lehrbuch, das neben den statistischen
auch die Methoden der klassischen KI behandelt.
- Zhang, Aston; Lipton, Zachary C.; Li, Mu; Smola, Alexander J. (2024):
Dive into Deep Learning.
Cambridge: Cambridge University Press.
Ebenfalls ein »hands-on«-Einführung, die, anders als Chollet (2021),
nicht Numpy und Tensorflow bzw. Keras, sondern PyTorch einsetzt,
das eine Python-API zur Torch-Bibliothek, die ebenfalls Funktionen
für Tensoroperationen und Neuronale Netze bietet
und vergleichbare Leistungsmerkmale aufweist.
Zudem wird hier ein tieferer Einblick in die Theorie geboten;
wozu auch eine knappe Einführung in die notwendige Mathematik
enthalten ist.
[Textanfang]
[Rainer Fischbach]