Die immerwährende Diktatur von ChatGPT

Herr Holz, welche Rolle spielt Ilja Sutskever als Chefwissenschaftler von OpenAI und Mastermind hinter ChatGPT in Bezug auf die öffentliche Wahrnehmung von Künstlicher Intelligenz?

Holz: Ende 2022 erblickte ChatGPT das Licht der Öffentlichkeit. Der Mitgründer von OpenAI und Mastermind hinter der Entwicklung von ChatGPT – Ilya Sutskever – war unter Insidern längst eine Legende. Bekannt wurde er einer breiten Öffentlichkeit aber erst durch seinen Putschversuch gegen Sam Altman, CEO und ebenfalls Mitgründer von OpenAI. Er wollte Pandora der Superintelligenz erst aus ihrer Büchse lassen, wenn die Sicherheitsmaßnahmen geklärt sind.

Ilya Sutskever ist nicht nur ein erfahrener Programmierer, sondern gehört auch zu den am meisten zitierten KI-Forschern der Welt. Schon 2012 war er im Team von Geoffrey Hinton, dem „Godfather of AI“, als mit ImageNet der überraschende Durchbruch bei neuronalen Netzwerken gelang. Seither dominiert diese Technik die Entwicklung von Künstlicher Intelligenz.

Der noch in der Sowjetunion geborene Sutskever ist zweifellos von den Erfahrungen seiner Familie mit einer menschenunwürdigen Diktatur geprägt. Man mag sich die mörderischen Exzesse einer Planwirtschaft gar nicht vorstellen, wenn Stalin im Besitz der Technologie gewesen wäre, die der junge Sutskever miterfunden hat.

Mit GPT-2 kam für Hinton, Sutskever und andere Experten ein “Oppenheimer Moment”. Sie waren von der überraschenden Leistungsfähigkeit ihrer eigenen Schöpfung schockiert. ChatGPT hatte ungeplante Fähigkeiten entwickelt. Beispielsweise konnte das System von alleine zwischen verschiedenen Sprachen übersetzen, obwohl das gar nicht vorgesehen war. Welche, vielleicht gefährlicheren Fähigkeiten lauern da noch in der Tiefe dieser Technologie?

Was sind die potenziellen Gefahren, die Sam Altman, der Geschäftsführer von OpenAI, im Zusammenhang mit exponentiellem Innovationsvorsprung vor „Konfliktstaaten“ sieht, und wie versucht er diese zu vermeiden?

Holz: Es ist nicht von der Hand zu weisen, dass Diktatoren und andere Bösewichte mit hochintelligenten Algorithmen großen Schaden anrichten könnten.

Verantwortungsträgern wie Sam Altman ist allerdings bewusst, dass eine Verzögerung der Entwicklung den Bösewichten in die Hand spielen kann. Das Know How neuronaler Netzwerke in offenen Gesellschaften ist nicht nur für Menschen verfügbar, die guten Willens sind.

Ohne Nachteile in Kauf zu nehmen, gibt es keine Innovation. Mit dem Auto haben wir den Autounfall dazu erfunden. Gegen den Autounfall haben wir wiederum Gurt, Airbag und ABS erfunden. Sam Altman hat gute Gründe darauf zu vertrauen, dass die Aufrecherhaltung des Innovationsvorsprungs in gewohnter Weise potentielle Schäden besser einfangen kann als Ängstlichkeit.

So sehen wir bereits heute, dass KI-Systeme das Internet immer sicherer machen. Bevor bösartige Akteure überhaupt Zugang zu neuen Anwendungen haben, können Schwachstellen durch KI umfassender identifiziert und behoben werden, als durch Menschen.

Wie unterscheiden sich die Ansichten der KI-Weltuntergangspropheten von den Vorstellungen, die sich auf die Implementierung einer KI richten, die mit den Bedürfnissen der Menschen übereinstimmt?

Holz: Hollywood hat uns ein bestimmtes Narrativ der Künstlichen Intelligenz als eigenständige – meist böse – Persönlichkeit eingeflößt. Das hat aber dramaturgische und keine wissenschaftlichen Gründe. Eine KI ist eben kein Antagonist in einem Blockbuster, sondern nur ein fragiles Stück Software für einen bestimmten Zweck.

KI-Apokalyptiker beschäftigen sich mit der Hypothese, ob ein System, das millionenfach klüger ist, als die gesamte Menschheit, gefährlich sein könnte. In Analogie sind Menschen tausendmal klüger als Ameisen. Wenn wir es vermeiden können, tun wir ihnen nichts. Aber wenn wir ein Haus bauen, schonen wir die betroffenen Insekten nicht.

Noch ist die Machbarkeit einer Superintelligenz reine Spekulation. Sollte es aber so weit kommen, wäre es im Nachhinein klug gewesen, rechtzeitig Sicherheitsmaßnahmen zu ergreifen, damit wir nicht das Schicksal der Ameise teilen.

Dieses sogenannte Alignment Problem beschäftigt sich mit der Frage, wie man eine Superintelligenz davon überzeugen kann, uns nichts zu tun. Schließlich bedeutet “Superintelligenz”, dass sie alle Sicherheitsmaßnahmen austricksen kann.

Pragmatische Experten empfehlen, die KI-Systeme einfach nicht einzuschalten, wenn sie gefährlich werden.

Welche aktuellen Auswirkungen von KI werden von Tristan Harris betont, insbesondere im Hinblick auf Manipulation, Hassrede und Sucht?

Holz: Jahre bevor neuronale Netzwerke ins mediale Rampenlicht gerückt sind, wurden sie bei Google oder Facebook schon eingesetzt, um die Vorlieben und Vorurteile der Nutzer zu befriedigen.

Ohne zu verstehen, worum es geht, haben KI-basierte Vorschlagssysteme entdeckt, dass Menschen moralische Empörung gegenüber anderen spannend finden. Hassrede verschafft einen Vorteil im Wettbewerb um die Aufmerksamkeit der User. Und das korreliert mit Werbezeit als Einnahmequelle. Soziale Medien halten uns hier einen Spiegel vor. Und wir müssen nicht immer mögen, was wir darin sehen.

TikTok hat diese Benutzerbefriedigung so optimiert, dass man sich nach einer kurzen Einlernphase kaum mehr lösen kann. Bei Menschen, die sonst kein Leben haben, kann das zur Sucht führen. Substanzlose Sucht ist nicht so sehr eine Frage der Disziplin, sondern tragfähiger Beziehungen zu Familie und Freunden.

Menschen, die manipulierbar sind, nennt man Kinder. Die muss man schützen. Für alle anderen gilt: „Werde erwachsen.“ Kritisches Denken ist in Zeiten der Sozialen Medien nicht mehr optional.

Tristan Harris hat eine sehr schöne Metapher für die Versuchung der Sozialen Medien geprägt. Das Swipen nach oben, um neue Meldungen angezeigt zu bekommen, funktioniert genau so wie der Arm des einarmigen Banditen im Spielkasino. Bei der nächsten Bewegung ist vielleicht doch noch etwas Interessantes dabei. Also bleibt man dran.

Die Älteren kennen das als Zappen vor dem Fernseher. Dahinter steckt die Hoffnung, dass auf irgendeinem Kanal doch noch etwas Gutes läuft. Aber es ist genau die Unsicherheit der Gratifikation, die einen weitermachen lässt.

Im Unterschied zu den klassischen Massenmedien wird das KI-gesteuerte und KI-generierte Programm auf den einzelnen Betrachter maßgeschneidert. Die eigene Selbstbeherrschung muss also gegen einen Supercomputer antreten, der einen zu unterhalten versucht.

Bei oberflächlicher Betrachtung von Machtverhältnissen kann man unvorhersehbare Phänomene der KI wie z.b. Manipulation, Sucht, Hassrede und ähnliches als Instrumente von Unterdrückung missverstehen. Tristan Harris selbst ist kein Vertreter der kritischen Theorie der Frankfurter Schule. Die Kritische Theorie geht von der offensichtlich falschen Annahme aus, dass KI-getriebene Unternehmen aus Unterdrückung Profit schlagen.

Es ist vermutlich kein Zufall, dass pauschale Digitalisierungskritik um 2015 nur wenige Jahre nach der Anwendung neuronaler Netze bei kurativen Anwendungen wie Sozialen Medien und Suchmaschinen einsetzt.

Kritik ist eine wichtige Richtschnur für ethische Analysen und moralische Softwareentwicklung, die im Interesse aller Stakeholder sind. Problematisch wird es, wenn man die Algorithmen für gesellschaftliche Schwächen verantwortlich macht, die viel älter sind als die Technik, wie z.b. Rassismus, Neid und Hass.

Wir können vom Staat fordern, einzelne Unzulänglichkeiten zu verbieten. Damit untergraben wir unsere Demokratie. Denn der Staat muss unparteiisch sein. Und es gibt zu allem jemanden, der etwas anderes für unzumutbar hält.

Im Kampf der Weltanschauungen des Silicon Valley, ist die gegenwartsorientierte Machkritik an der Digitalisierung in den Schatten der öffentlichen Wahrnehmung geraten.

Wie wird der Kulturkampf im Spannungsfeld von Longtermismus, effektivem Accelerationalismus in der Diskussion über KI deutlich, und warum ist es lohnenswert, genauer hinzuschauen?

Holz: Die Moralphilosophie des effektiven Altruismus verlangt von uns, nicht nur dort zu helfen, wo wir in unserem Umfeld direkt eingreifen können. Wenn alle Menschen den gleichen Wert haben, darf es für eine humanistische Moral keinen Unterschied machen, wie weit die hilfsbedürftige Person entfernt ist. Zur Tugend des effektiven Altruismus gehört es, möglichst reich zu werden, damit man viel spenden kann.

Longtermismus erweitert diese Moralphilosophie um die Zukunft. Sie fragt, was wir heute tun können, damit es möglichst vielen Menschen in einer noch so fernen Zukunft gut geht.

Kritiker meinen, man sollte sich zuerst um die gegenwärtigen Probleme wie z.B. den Klimawandel und seine Auswirkungen kümmern. Allerdings hat solch kurzfristiges Denken Probleme wie den Klimawandel erst verursacht.

Es ist also wichtig, nicht all seine Ressourcen auf die Gegenwart zu richten, sondern sich auch um die existentiellen Probleme zu kümmern, die erst noch vor uns liegen, wie z.b. Supervulkane, Killer-Meteoriten oder eben die KI-Apokalypse, die Ilya Sutskever und Kollegen solche Sorgen bereitet.

Gegen die pessimistische Sicht des Longtermismus hat sich mit den effektiven Accelerationalisten e/acc eine Gegenbewegung gebildet, die in der Weiterführung des bisherigen Erfolgsmodells der Beschleunigung die beste Lösung sieht.

Während viele Menschen glauben, dass unendliches Wachstum auf einem endlichen Planeten nicht möglich wäre, zeigt uns die Natur das Gegenteil. Wasser auf der Erde ist eine finite Resource. Aber der Wasserkreislauf macht unendlichen Gebrauch davon.

Leben auf unserem Planeten ist grenzenlose Produktion und Konsum ohne Abfall. Eine Grenze, die nicht überschritten werden kann, ist keine Grenze, sondern das Ende. Und am Ende sind wir noch lange nicht.

Autor Christoph Holz:

Christoph Holz hat Raumfahrttechnik und Informatik an der Technischen Universität in München studiert und mehrere Unternehmen gegründet.
Er ist ein gefragter Keynote Speaker rund um die menschlichen Fragen der digitalen Transformation durch Künstliche Intelligenz und Robotik. Christoph Holz weiß mit Sprachwitz, eindrucksvollen Bildern und außergewöhnlichen Beispielen zu begeistern. Er verbindet Technologie, Gesellschaft und Wirtschaft zu einem sinnstiftenden Ganzen. Seine Zukunftsperspektiven nehmen den Menschen die Angst vor Veränderung und trainieren die Innovationsfähigkeit seiner Zuhörer.

Der Informatiker und Raumfahrttechniker weiß, wovon er spricht. Er ist Hochschullehrer und ein echter Cyborg. Als Business Angel engagiert er sich in Australien und Singapur und investiert in vielversprechende Projekte im Bereich Künstliche Intelligenz, Blockchain und Co-Living. Start-ups profitieren dabei von seinen 20 Jahren Erfahrung als IT-Unternehmer in Europa und dem Silicon Valley. Einer breiten Öffentlichkeit ist Holz als TV-Experte, z.B. bei Sat.1, RTL oder N-TV bekannt.

Webseite: www.christophholz.com

Aussagen des Autors und des Interviewpartners geben nicht unbedingt die Meinung der Redaktion und des Verlags wieder

Erhalte regelmäßig die wichtigsten News zur Künstlichen Intelligenz bequem in dein Postfach!

Wir senden keinen Spam! Erfahre mehr in unserer Datenschutzerklärung.

More from this stream

Recomended

Was bedeutet Datenqualität im KI-Kontext?

Was bedeutet Datenqualität im KI-Kontext? Künstliche Intelligenz basiert auf guter Datengrundlage..........

EnBW-Schnellladepark am Kamener Kreuz

EnBW-Schnellladepark am Kamener Kreuz: Premiere für KI-basierten unbemannten Shop von Lekkerland

Die Cloud als KI-Sprungbrett

Der aktuelle Mangel...

forward earth sammelt 3,2 Millionen Euro ein

forward earth sammelt 3,2 Millionen Euro ein, und beschleunigt Dekarbonisierung globaler Lieferketten mit integrierter KI-Software

Generative KI mit Serverless optimieren

Generative KI mit Serverless optimieren von Dr. Li Feifei, President of Database Products Business bei Alibaba Cloud