KI: Fünf Prinzipien für einen verantwortungsvollen Ansatz

Künstliche Intelligenz (KI) ist seit langem eine Faszination für die Menschen

Filme wie Blade Runner oder Matrix spiegeln dies eindrucksvoll wider. Sie werfen tiefgründige philosophische Fragen über die menschliche Natur und die Ethik der KI auf, meist durch ein eher pessimistisches Prisma. Hier sind fünf Prinzipien, die Unternehmen dabei helfen sollen, sich einer optimistischen und verantwortungsvollen Nutzung von KI zu nähern.

Die Demokratisierung der KI hat mit dem Aufkommen großer Sprachmodelle eine neue Stufe erreicht. Neben den vielen positiven Stimmen kamen jedoch aufgrund von Manipulationen, unethischer Nutzung und Urheberrechtsverletzungen auch Bedenken auf. KI-Expert:innen wiesen darauf hin, dass die richtigen Sicherheits- und ethischen Leitplanken berücksichtigt werden müssen, um die Bedrohung durch KI für böswillige Zwecke zu mindern. Diese könnten schwerwiegende Auswirkungen auf unsere Gesellschaft haben.

Diskussionen über die Regulierung der KI finden weltweit statt. So stimmten die Europaabgeordneten im März 2024 für ein EU-Gesetz zur künstlichen Intelligenz, das wahrscheinlich auch global einen Einfluss haben wird, ähnlich wie die DSGVO auf den Schutz der Privatsphäre. Ende November 2023 unterzeichneten achtzehn Länder zudem eine Vereinbarung, die Sicherheit zur obersten Priorität bei der Gestaltung von KI zu machen.

Allerdings könnten Verzögerungen bei der Gesetzgebung ihre greifbaren Auswirkungen auf die unethische Nutzung der Technologie um einige Jahre hinauszögern. Gleichzeitig ist es Aufgabe der Unternehmen, sich mit diesen Herausforderungen auseinanderzusetzen, da sie in den kommenden Monaten und Jahren KI-Systeme erproben, integrieren und entwickeln werden. Bestimmte Prinzipien sollten daher berücksichtigt und als Leitlinien genutzt werden, um dies in einem verantwortungsvollen Rahmen zu machen.

Sicherheit und Datenschutz umfassen vier Säulen:

a. Der sichere Einsatz von KI – hier wird sichergestellt, dass sensible Daten nicht an öffentliche GenAI-Tools weitergegeben werden und die Privatsphäre nicht gefährdet wird. Dazu gehört auch die Berücksichtigung ethischer Aspekte. Einige Länder haben damit begonnen, Unternehmen zu bestrafen, die voreingenommene KI einsetzen, was in Zukunft zu einem Standard der KI-Regulierung werden könnte.
b. Schutz des Unternehmens vor KI-Angriffen. KI stellt ein neues Ökosystem dar, auf das Bedrohungsakteure abzielen. Unternehmen sollten sich darüber im Klaren sein und ihre Systeme und Mitarbeiter:innen vor den verschiedenen und neu auftretenden Bedrohungen schützen.
c. Sichere Entwicklung von KI durch Einführung von „Privacy by Design“- und „Security by Design“-Prozessen. Dazu gehört auch die Sicherung der Umgebung und der Lieferkette, in der die KI entwickelt wird.
d. Schutz der KI-Modelle und ihrer Trainingsdaten in der Produktion – insbesondere vor Bedrohungen wie Datenvergiftung, die das Modell fehlerhaft und/oder verzerrt machen könnte.

Transparenz und Erklärbarkeit sind für Organisationen, die KI entwickeln, unerlässlich. Das bedeutet, dass die „Black Box“-Entscheidungen und -Ergebnisse des KI-Systems leicht zu erklären und bei Bedarf nachzuweisen sein sollten. Sie sollten auch nachvollziehbar sein und erwartet werden.

Voreingenommenheit und Fairness sind ebenfalls von entscheidender Bedeutung. Organisationen, die KI-Modelle entwickeln, müssen dafür sorgen, dass diese ohne Voreingenommenheit entwickelt werden und dass sie langfristig fair sind. Dies kann durch folgende Maßnahmen erreicht werden:

a. Pre-Processing: Abschwächungsmethoden, die auf den Trainingsdatensatz angewendet werden, bevor ein Modell darauf trainiert wird.
b. In-Processing: Abschwächungstechniken, die in den eigentlichen Modellschulungsprozess integriert werden.
c. Post-Processing-Methoden arbeiten an den Vorhersagen des Modells, um die gewünschte Fairness zu erreichen.

Inklusive Zusammenarbeit bedeutet, dass verschiedene Stakeholder und Teams (Unternehmen, Risikomanagement, Recht und Compliance, Sicherheit, Öffentlichkeitsarbeit usw.) in den KI-Entwurfs- und Überwachungsprozess einbezogen werden und der Einsatz von KI in allen Bereichen bewertet wird. Die Einbindung verschiedener Interessengruppen trägt dazu bei, Voreingenommenheit zu vermeiden und die Qualität des Ergebnisses zu sichern.

Verantwortlichkeiten für jedes eingesetzte KI-System festzulegen, ist von entscheidender Bedeutung. Wer ist dafür verantwortlich, dass ein KI-Tool weiterhin ordnungsgemäß funktioniert, und wer ist rechenschaftspflichtig, wenn etwas schief geht? Und was sind die möglichen rechtlichen und regulatorischen Auswirkungen für das Unternehmen und die verantwortlichen Personen?

Während die Regulierungen in der Bearbeitung sind, werden sich KI-Innovationen stetig weiterentwickeln. Diese fünf Prinzipien sollten Ansporn für einen verantwortungsvollen Umgang mit KI und KI-Sicherheit sein. Dadurch können Unternehmen Vorteile erzielen und sich vom Wettbewerb abheben.

Bildcredits: Getty Images Credit dusanpetkovic

Autor:

David Fairman ist ein erfahrener CSO/CISO, strategischer Berater, Investor und Coach. Er verfügt über umfangreiche Erfahrungen im globalen Finanzdienstleistungssektor. Er gilt als Vordenker in der Cybersicherheitsbranche.

Aussagen des Autors und des Interviewpartners geben nicht unbedingt die Meinung der Redaktion und des Verlags wieder.

Erhalte regelmäßig die wichtigsten News zur Künstlichen Intelligenz bequem in dein Postfach!

Wir senden keinen Spam! Erfahre mehr in unserer Datenschutzerklärung.

More from this stream

Recomended

Oscar Stories präsentiert LORA

Oscar Stories präsentiert LORA: erste vertrauenswürdige KI-Adoption für reduzierten Bias und kindgerechte Sprache in DACH RAUM

Künstliche Intelligenz in der internen Rechtsberatung

Künstliche Intelligenz in der internen Rechtsberatung: EnBW und Xayn arbeiten zusammen Der Energieversorger nutzt Europas erste souveräne Rechts-KI Noxtua

Verantwortungsvolle und nachhaltige KI

Verantwortungsvolle und nachhaltige KI: Sopra Steria startet internationalen Wettbewerb für Studierende

HOWARD BOVILLE, KI-Experte DXC Technology im Interview

HOWARD BOVILLE, KI-Experte DXC Technology. Das Interview wurde auf dem EXPODAY 2024 der Startup-Autobahn im Juni in Stuttgart aufgezeichnet

Verhandlungstrainings mit Künstlicher Intelligenz

Verhandlungstrainings mit Künstlicher Intelligenz. Neu auf dem Markt: Die innovative Learning App NELA von NAG zur Verhandlungs­simulation.

Metaverse: Jedes zehnte Unternehmen sieht sein Geschäftsmodell bedroht

Metaverse: Jedes zehnte Unternehmen sieht sein Geschäftsmodell bedroht