Risiken und Gefahren
Zugegeben, KI ist praktisch. Aber wir wären nicht bei den GRÜNEN, wenn wir nicht auch darauf achten würden, welche Risiken und Gefahren KI zugrunde liegen. Ich würde folgende Punkte fokussieren:
1. Technische Einschränkungen der LLMs
Mangel an gesundem Menschenverstand
LLMs können sehr plausibel klingen, doch fehlt ihnen oft ein tiefgreifenderes Verständnis des Kontextes. Sie besitzen keinen "gesunden Menschenverstand" im menschlichen Sinne. Dies kann zu Fehlern führen, etwa bei logischen Fragen.
Halluzinationen
Ein großes Problem ist die Tendenz von LLMs, "Fakten zu halluzinieren", das heißt, sie erfinden plausible, aber unwahre oder nicht durch Belege gestützte Informationen. Dies geschieht, weil LLMs auf statistischen Mustern und Wahrscheinlichkeiten basieren, anstatt die Wahrheit der Ausgabe zu überprüfen.
Begrenztes Kontextfenster
LLMs können sich nur an eine begrenzte Anzahl von Wörtern in einer Konversation "erinnern". Wird diese Grenze überschritten, beginnen sie, den Kontext zu vergessen. Wer schon mal länger in einem KI-Chatfenster gehangen hat wird es kennen: Je länger man drin ist, desto komischer werden die Antworten.
Datenschutzbedenken
Bei der Nutzung von LLMs besteht das Risiko, dass sensible oder persönliche Informationen, die in die Modelle eingegeben werden, nicht ausreichend geschützt sind.
2. Ethische und gesellschaftliche Risiken
Verzerrungen (Bias)
LLMs können verzerrte Ergebnisse (Biases) reproduzieren, die aus den Trainingsdaten stammen. Da diese Modelle mit riesigen Mengen an Daten trainiert werden, die menschliche Vorurteile und gesellschaftliche Ungleichheiten widerspiegeln können, können sie diskriminierende Muster fortschreiben und verstärken. Dies kann sich in unterschiedlicher Leistung zwischen demografischen Gruppen (z.B. basierend auf Dialekt, Religion, Geschlecht oder Rasse) zeigen. Im kommunalpolitischen Kontext könnte dies beispielsweise bedeuten, dass KI-Systeme bei der Bewertung von Sozialleistungen unbewusst bestimmte Bevölkerungsgruppen benachteiligen, wenn die Trainingsdaten historische Ungleichheiten widerspiegeln.
Schädliche Inhalte und Missbrauchspotenzial
LLMs können zusammenhängende, qualitativ hochwertige und plausible Texte generieren, was sie zu potenziellen Werkzeugen für die Verbreitung von Hassreden, Diskriminierung, Aufstachelung zu Gewalt, falschen Narrativen oder Social-Engineering-Angriffen macht. Es besteht auch ein "Dual-Use-Potenzial", bei dem LLMs missbraucht werden könnten, um illegale Informationen bereitzustellen, z.B. zur Waffenproliferation oder Terrorplanung.
Fehlinformation und Manipulation
Die Fähigkeit von LLMs, menschenähnliche Texte, Bilder oder Videos zu erzeugen (sogenannte "Deepfakes"), macht es zunehmend schwierig, maschinengenerierte Inhalte von authentischen zu unterscheiden. Dies birgt erhebliche Risiken für die Integrität des Informationsökosystems und das Vertrauen der Öffentlichkeit, da es zu großflächiger Fehlinformation, Manipulation, Betrug und Identitätsdiebstahl führen kann.
3. Regulatorische Risiken und verbotene Praktiken laut EU AI Act
Die EU-Gesetzgebung für Künstliche Intelligenz (AI Act) adressiert explizit eine Reihe von Hochrisikobereichen und verbietet bestimmte KI-Praktiken, um die Grundrechte zu schützen und Missbrauch zu verhindern.
Verbotene KI-Praktiken (Artikel 5 des AI Act)
Manipulative KI-Systeme
Verboten sind KI-Systeme, die menschliches Verhalten durch unterschwellige Beeinflussung oder die Ausnutzung von Schwachstellen einer Person oder Gruppe (z.B. Alter, Behinderung, soziale/wirtschaftliche Situation) erheblich nachteilig beeinflussen und dadurch physischen, psychischen oder finanziellen Schaden verursachen können. Im politischen Kontext könnte dies beispielsweise ein KI-System sein, das Wähler manipuliert, indem es auf nicht wahrnehmbare Weise Emotionen oder Vorurteile anspricht.
Soziale Bewertung (Social Scoring)
KI-Systeme, die Menschen oder Gruppen über einen bestimmten Zeitraum anhand ihres sozialen Verhaltens oder ihrer persönlichen Merkmale bewerten oder klassifizieren und dies zu Diskriminierung oder Ausgrenzung führt, sind verboten. Ein kommunalpolitisches Beispiel wäre ein System, das Bürger nach ihrem Engagement in der Gemeinde bewertet und dies dann für den Zugang zu öffentlichen Dienstleistungen verwendet.
Echtzeit-Biometrische Fernidentifizierung
Diese Praxis ist grundsätzlich verboten, da sie massiv in die Privatsphäre eingreift und ein Gefühl ständiger Überwachung erzeugen kann. Es gibt nur eng definierte und streng begrenzte Ausnahmen, beispielsweise für die Suche nach Opfern von Straftaten, zur Abwehr von Terroranschlägen oder zur Identifizierung von Tätern bei besonders schweren Verbrechen. Diese Ausnahmen erfordern eine vorherige Genehmigung durch eine Justiz- oder Verwaltungsbehörde und sind zeitlich, geografisch und personenbezogen beschränkt.
Risikobewertung von Straftaten basierend auf Profiling
KI-Systeme, die das Risiko einer Person, eine Straftat zu begehen oder erneut zu begehen, ausschließlich auf Basis ihres Profilings oder persönlicher Eigenschaften vorhersagen, sind verboten. Eine KI-gestützte Vorhersage, dass ein Bürger aufgrund seiner sozioökonomischen Daten wahrscheinlich kriminell wird, wäre ein solches verbotenes System.
Weitere verbotene Praktiken
- Ungezieltes Auslesen von Gesichtsbildern zur Datenbankerstellung: Das Erstellen oder Erweitern von Gesichtserkennungsdatenbanken durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Videoüberwachungsaufnahmen ist untersagt.
- Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen: Der Einsatz von KI-Systemen zur Ableitung von Emotionen von Personen in diesen Kontexten ist verboten, es sei denn, es dient medizinischen oder Sicherheitszwecken.
- Biometrische Kategorisierung sensibler Attribute: Das Kategorisieren von Personen anhand biometrischer Daten zur Ableitung von Rasse, politischen Ansichten, sexueller Orientierung oder religiösen Überzeugungen ist verboten.
Systemische Risiken von KI-Modellen mit allgemeinem Verwendungszweck
LLMs, insbesondere große generative KI-Modelle, können systemische Risiken bergen, die weitreichende negative Auswirkungen auf die öffentliche Gesundheit, Sicherheit, die demokratischen Prozesse und die Gesellschaft insgesamt haben können. Dies beinhaltet das Risiko der Verbreitung illegaler, falscher oder diskriminierender Inhalte und die Beeinflussung demokratischer Prozesse. Die EU-Verordnung legt Schwellenwerte für die Rechenleistung fest, ab denen ein Modell als systemisches Risiko eingestuft wird, und fordert Bewertungen und Minderungsmaßnahmen von den Anbietern.
4. Sonstige praktische Herausforderungen
Kosten und Effizienz
LLMs sind extrem groß und ihr Training erfordert enorme Rechenressourcen und ist sehr kostspielig (z.B. bis zu 4,6 Millionen US-Dollar für einen einzelnen Trainingslauf von GPT-3 175B). Auch die Inferenz (die Zeit, die das Modell für eine Antwort benötigt) ist ein entscheidender Faktor. Eine hohe Latenz kann LLMs für Echtzeitanwendungen, wie Suchmaschinen, ungeeignet machen.
Schwierige Leistungsvorhersage bei Skalierung
Es ist nicht immer klar, wie sich die Leistung von LLMs mit zunehmender Größe entwickelt. Es gibt Phänomene wie "Inverse Scaling" oder "U-förmige Phänomene", bei denen größere Modelle nicht zwangsläufig besser sind oder die Leistung sogar abnimmt. Dies macht die Planung und Investition in größere Modelle komplex und risikoreich.
Mangelnde Interpretierbarkeit
Obwohl LLMs über Argumentationsfähigkeiten verfügen, sind ihre internen Prozesse oft undurchsichtig. Es ist nicht immer leicht nachvollziehbar, wie sie zu bestimmten Ergebnissen kommen. Die Transparenz ist ein wichtiger Aspekt, der durch die EU-Verordnung gefordert wird, um Betreibern ein besseres Verständnis zu ermöglichen.
Fazit
Zusammenfassend lässt sich sagen, dass die Gefahren von LLMs von tiefgreifenden technischen Limitierungen bis hin zu weitreichenden gesellschaftlichen und ethischen Problemen reichen, die sorgfältige Regulierung und verantwortungsvolle Anwendung erfordern.