Wir fantasieren schon lange über künstliche Intelligenz. Diese Besessenheit manifestiert sich in einigen kulturellen Meisterwerken, mit Filmen oder Büchern wie 2001: Odyssee im Weltraum, Metropolis, Blade Runner, The Matrix, I, Robot, Westworld und mehr. Die meisten werfen tiefgründige philosophische Fragen über die menschliche Natur auf, erforschen aber auch die potenziellen Verhaltensweisen und die Ethik künstlicher Intelligenz, meist durch eine eher pessimistische Linse. Obwohl es sich nur um Werke der Fiktion handelt, zeigt dies, wie vorsichtig wir sind, wenn unsere Schöpfungen zu unseren Meistern werden.
Die Demokratisierung der KI erreichte eine neue Stufe, als große Sprachmodelle entstanden. Aber bei all dem Lob, das sie erhalten haben, haben sie ebenso viele Alarmglocken geläutet. Wir haben schnell Mängel in diesen neuen KI-Modellen festgestellt, wie z. B. Halluzinationen oder unethische Nutzung, einschließlich Fehlinformationen und Urheberrechtsverletzungen, was Bedenken und Rufe von den klügsten Köpfen der Branche hervorgerufen hat. Sie argumentierten, dass wir nicht in einen KI-Innovationswettlauf eintreten sollten, ohne die richtigen Sicherheits- und ethischen Leitplanken zu berücksichtigen, um die Bedrohung durch KI für böswillige Zwecke oder die Schaffung fehlerhafter KI-Systeme, die starke Auswirkungen auf unsere Gesellschaft haben könnten, zu mindern.
Weltweit finden Gespräche über die Regulierung von KI statt, die zu einem gesunden Fortschritt beitragen sollten. Die EU-Mitglieder sind führend bei diesen Bemühungen und haben sich bereits im Dezember auf den AI Act geeinigt, von dem man hofft, dass er andere Vorschriften weltweit beeinflussen wird, vergleichbar mit dem, was die DSGVO für den globalen Datenschutz getan hat. Im November unterzeichneten eine Reihe von Nationen außerdem ein Abkommen , um Sicherheit zur obersten Priorität bei den Anforderungen an das KI-Design zu machen.
Es ist beruhigend zu sehen, dass proaktive Regierungen damit beginnen, KI-Gesetze und -Vorschriften zu verabschieden, aber das Tempo der Gesetzgebung ist so hoch, dass wir noch ein paar Jahre davon entfernt sein könnten, dass sie einen tatsächlichen Einfluss auf die Eindämmung der unethischen und unsicheren Nutzung der Technologie haben. In der Zwischenzeit müssen die Organisationen die Sache selbst in die Hand nehmen. Mehr Unternehmen als je zuvor werden in den kommenden Monaten und Jahren die Möglichkeit haben, KI-Systeme zu konsumieren, zu experimentieren, zu integrieren und zu entwickeln, und es gibt bestehende Prinzipien, die berücksichtigt und als Richtlinien verwendet werden sollten, um dies verantwortungsvoll zu tun.
- Sicherheit und Datenschutz umfassen vier Säulen:
- KI sicher einsetzen, z. B. indem sichergestellt wird, dass sensible Daten nicht öffentlichen GenAI-Tools ausgesetzt sind und die Privatsphäre nicht gefährdet wird. Es bedeutet auch, die ethischen Aspekte zu berücksichtigen. Einige Rechtsordnungen haben damit begonnen, Unternehmen zu bestrafen, die voreingenommene KI einsetzen, was in Zukunft zu einem KI-Regulierungsstandard werden könnte.
- Schutz des Unternehmens vor KI-Angriffen. Ich habe erwähnt, dass KI ein neues Ökosystem ist, auf das Bedrohungsakteure abzielen können, und Unternehmen sollten damit Schritt halten und ihr System und ihre Mitarbeiter vor den verschiedenen und aufkommenden Bedrohungen schützen.
- Sichere Entwicklung von KI durch die Einführung von Privacy-by-Design- und Security-by-Design-Prozessen. Dazu gehört auch die Sicherung der Umwelt und der Lieferkette, in der die KI entwickelt wird.
- Schutz von KI-Modellen und deren Trainingsdaten in der Produktion, insbesondere vor Bedrohungen wie Datenvergiftung, die das Modell fehlerhaft und/oder verzerrt machen könnten.
- Transparenz und Erklärbarkeit sind für Organisationen, die KI entwickeln, notwendig. Das bedeutet, dass die Black-Box-Entscheidungen und -Outputs des KI-Systems einfach zu erklären und bei Bedarf zu demonstrieren sein sollten. Sie sollten auch rückverfolgbar sein und erwartet werden.
- Reflexionen über Voreingenommenheit und Fairness sind ebenfalls von entscheidender Bedeutung. Unternehmen, die KI-Modelle entwickeln, müssen sicherstellen, dass sie unvoreingenommen aufgebaut sind und ihre Fairness langfristig gewährleisten. Dies kann erfolgen, indem Sie Folgendes anwenden:
- Vorverarbeitung; Entschärfungsmethoden, die auf das Trainingsdataset angewendet werden, bevor ein Modell darauf trainiert wird
- In Bearbeitung; Minderungstechniken, die in den Modelltrainingsprozess selbst integriert sind.
- Post-Processing-Methoden arbeiten mit den Vorhersagen des Modells, um die gewünschte Fairness zu erreichen.
- Inklusive Zusammenarbeit bedeutet, sicherzustellen, dass verschiedene Interessengruppen und Teams (Unternehmen, Risiko, Recht und Compliance, Sicherheit, Öffentlichkeitsarbeit usw.) in den KI-Design- und Aufsichtsprozess einbezogen werden und der Einsatz von KI in allen Bereichen bewertet wird. Die Einbeziehung verschiedener Interessengruppen trägt zur Vermeidung von Verzerrungen und zur Qualität des Ergebnisses bei.
- Schließlich ist es wichtig, die Eigentumsverhältnisse und Verantwortlichkeiten für jedes eingesetzte KI-System zu definieren. Wer ist dafür verantwortlich, dass ein KI-Tool weiterhin ordnungsgemäß funktioniert, und wer ist verantwortlich, wenn etwas schief geht? Und was sind die potenziellen rechtlichen und regulatorischen Auswirkungen auf die Organisation und die verantwortlichen Personen?
Während wir auf weitere Vorschriften warten, wird es eine weitere Entwicklung der KI-Innovation geben, und diese fünf Prinzipien sollten einen Wettlauf an die Spitze für verantwortungsvolle KI und KI-Sicherheit auslösen, was an sich schon ein Unterscheidungsmerkmal ist, das zu einem Wettbewerbsvorteil wird.