Internationaler Gipfel und Deklaration zu Künstlicher Intelligenz in Bletchley Park im November 2023 – UK AI Safety Summit
der Abgeordneten Edgar Naujok, Barbara Benkstein, Eugen Schmidt, Steffen Janich, Beatrix von Storch, Nicole Höchst, Jörn König, Wolfgang Wiehle und der Fraktion der AfD
Vorbemerkung
Für den 1. und 2. November 2023 lud der britische Premierminister Rishi Sunak zu einem internationalen Gipfel zum Thema Künstliche Intelligenz (KI; englisch: AI) Vertreter aus Politik, Wirtschaft und Wissenschaft aus 28 Ländern und der EU zum Landsitz Bletchley Park ein (UK AI Safety Summit), zu dem auch eine entsprechende Deklaration verabschiedet wurde (www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023). Am historischen Standort Bletchley Park wurde während des Zweiten Weltkriegs mithilfe mathematischer Methoden die militärische Kommunikation der damaligen Kriegsgegner entschlüsselt, insbesondere dank des Computer-Pioniers Alan Turing (bletchleypark.org.uk/bletchley-park-makes-history-again-as-host-of-the-worlds-first-ai-safety-summit/).
Die Teilnehmer stimmten darin überein, dass die Entwicklung und Anwendung von Künstlicher Intelligenz zum Wohle aller in einer Weise reguliert werden sollte, sodass diese auf den Menschen ausgerichtet, vertrauenswürdig und verantwortungsvoll sei (www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attendingthe-ai-safety-summit-1-2-november-2023). Es wurden zahlreiche sinnvolle Anwendungsmöglichkeiten von KI, wie z. B. für das Angebot öffentlicher Dienstleistungen, für Gesundheit oder Nahrungsmittelsicherheit, aber auch deutliche Risiken dieser Technologie aufgezeigt, wie z. B. beim Missbrauch in Bezug auf Cyber-Sicherheit, Biotechnologie oder Desinformation, und daraus die besonders dringliche Notwendigkeit der Regulierung von KI im Rahmen internationaler Kooperation abgeleitet (ebd.).
Herausgestellt wurde ferner, dass die Entwickler von leistungsstarken KI-Instrumenten eine besondere Verantwortung hätten, die eine entsprechende Transparenz und Rechenschaft erforderlich mache (ebd.).
Als weitere Schritte auf dem Weg zu einer Regulierung der besonders leistungsfähigen, daher aber auch besonders riskanten KI-Instrumente (frontier AI) wurden die Identifizierung von KI-Sicherheitsrisiken, die von gemeinsamer Bedeutung sind, der Aufbau eines gemeinsamen wissenschaftlichen und evidenzbasierten Verständnisses dieser Risiken sowie der Aufbau eines umfassenderen globalen Ansatzes zum Verständnis der Auswirkungen von KI verabredet. Ebenso beinhaltet die Deklaration die gemeinsame Entwicklung entsprechender risikobasierter Richtlinien, jedoch auch die Anerkennung, dass die Regulie- rungssätze je nach nationalen Gegebenheiten und geltenden rechtlichen Rahmenbedingungen unterschiedlich sein können. Dazu gehörten, neben einer erhöhten Transparenz durch private Akteure, auch die Entwicklung geeigneter Sicherheitstests sowie der Aufbau relevanter Kapazitäten dafür im öffentlichen Sektor und in der wissenschaftlichen Forschung (ebd.). Ein Anschlusstreffen für das Jahr 2024 wurde in Aussicht gestellt.
Medienberichten zufolge haben acht große Technologiekonzerne (OpenAI, Google DeepMind, Anthropic, Amazon, Inflection AI, Mistral AI, Microsoft und Meta) zum Abschluss der Konferenz die Deklaration ebenfalls unterzeichnet, stimmten staatlichen Sicherheitstests allerdings nur auf freiwilliger Basis zu (www.faz.net/aktuell/wirtschaft/kuenstliche-intelligenz/gipfel-in-bletchley-park-sicherheitstests-fuer-ki-modelle-19288457.html).
Dagegen konnte sich die Bundesregierung mit ihrer Forderung nach verpflichtenden Sicherheitstests offenbar nicht durchsetzen, während in den USA durch eine präsidentielle Executive Order bereits obligatorische Tests beschlossen wurden (ebd.). Großbritannien (UK) und die USA kündigten dazu bereits die Gründung eines „AI Safety Institute“ in ihren Ländern an, die Standards für Tests und Evaluierungen entwickeln sollen.
Im August 2023 trat ferner eine neue KI-Regulierung zu generativer KI in der Volksrepublik China in Kraft, die Medienberichten zufolge die strikteste der Welt, zumindest hinsichtlich des Aspektes der nationalen Sicherheit, und bei konsequenter Anwendung von KI-Entwicklern kaum zu erfüllen sei (time.com/6314790/china-ai-regulation-us/).
Auch die G7-Staaten haben sich bereits auf einen freiwilligen KI-Verhaltenskodex geeinigt (www.sueddeutsche.de/wirtschaft/ki-gipfel-blechtleypark-grossbritannien-kuenstliche-intelligenz-1.6297377).
Ebenfalls kurz vor der Konferenz hatten die US-Unternehmen Google, Anthropic, OpenAI und Microsoft den Branchenverband „Frontier Model Forum“ gegründet, der sich auf freiwilliger Basis um die sichere und verantwortungsvolle Entwicklung und den Nutzen der sogenannten Frontier-KI-Modelle kümmern soll (www.heise.de/news/OpenAI-nennt-Chef-fuer-KI-Branchenverband-und-neue-Sicherheits-Teams-9349976.html).
Dagegen wird der sich derzeit noch in den europäischen Trilog-Verhandlungen befindende AI-Act, dessen Abschluss noch im Jahr 2023 lediglich angestrebt wird, von dem Europäischen Parlament als „das weltweit erste umfassende KI-Gesetz“ bezeichnet (www.europarl.europa.eu/news/de/headlines/society/20230601STO93804/ki-gesetz-erste-regulierung-der-kunstlichen-intelligenz). Hinzu kommt, dass – gemäß dem aktuellen Verordnungsentwurf – nach dem künftigen Inkrafttreten noch eine Übergangszeit von zwei Jahren gilt, in der sich die Unternehmen an die veränderten Rahmenbedingungen anpassen können, was nach Aussagen der EU-Technologiekommissarin Margrethe Vestager „offensichtlich zu spät“ sei, gerade angesichts der Dynamik bei der Entwicklung generativer KI (www.deutschlandfunk.de/ai-act-eu-kuenstliche-intelligenz-gefahr-regulierung-100.html).
Wir fragen die Bundesregierung:
Fragen20
Welche Regierungsvertreter Deutschlands nahmen an der Konferenz teil, wie groß war die deutsche Delegation insgesamt, und welche Nichtregierungsvertreter umfasste sie ferner, und wie erfolgte der Abstimmungsprozess zur Nominierung der deutschen Regierungsvertreter?
Waren auch der Bundesminister für Arbeit und Soziales, Hubertus Heil, sowie die Bundesministerin für Bildung und Forschung, Bettina Stark-Watzinger, deren Ressorts innerhalb der Bundesregierung neben dem Bundesministerium für Wirtschaft und Klimaschutz, für das Thema Künstliche Intelligenz federführend sind (www.bundesregierung.de/bregde/themen/digitalisierung/digitalpolitik-2072890), Teil der deutschen Delegation, wenn nein, warum nicht, wenn ja, welche Aufgaben hatten sie im Rahmen der deutschen Delegation, und haben sie diese Aufgaben erfüllt?
Aus welchen Gründen nahm der Bundesminister für Digitales und Verkehr Dr. Volker Wissing an der Konferenz teil (www.sueddeutsche.de/wirtschaft/ki-gipfel-blechtley-park-grossbritannien-kuenstliche-intelligenz-1.6297377), welche Aufgaben hatte er im Rahmen der Konferenz, und hat er diese Aufgaben erfüllt?
Haben die deutschen Regierungsvertreter formelle Gespräche mit Repräsentanten ausländischer Unternehmen geführt, wenn ja, wer mit welchen Repräsentanten (bitte einzeln auflisten), und welche konkreten Themen wurden darin besprochen, haben diese Gespräche zu konkreten Ergebnissen geführt, und wurden dabei gemeinsame Maßnahmen vereinbart, wenn ja, welche?
Welche Positionen nahmen die Regierungsvertreter Deutschlands im Rahmen der Konferenz ein, wie erfolgte der Abstimmungsprozess zur Entwicklung dieser Positionen, und gab es Abweichungen zu den Aussagen der verabschiedeten Deklaration (vgl. Vorbemerkung der Fragesteller), wenn ja, zu welchen Aspekten?
Als wie erfolgreich bewertet die Bundesregierung die Verhandlungsführung der deutschen Regierungsvertreter, und anhand welcher Kriterien nimmt sie diese Bewertung vor?
Hat die Bundesregierung neue Erkenntnisse zum Thema der Regulierung von KI oder auch andere Erkenntnisse im Rahmen dieser Konferenz gewonnen, wenn ja, welche, und wird die Bundesregierung neue Erkenntnisse zur Regulierung von KI noch im Rahmen der laufenden Trilog-Verhandlungen zum europäischen AI-Act einbringen (www.bvdw.org/news-und-publikationen/gemeinsames-positionspapier-der-mittelstandsallianz-zum-ai-act/), wenn ja, welche?
Hat die Bundesregierung Kenntnis davon, in welchem Umfang CO2 durch die An- und Abreise der deutschen Delegation und in welchem Umfang CO2 durch die Durchführung der Konferenz vor Ort emittiert wurde, wenn ja, wie hoch war dieser, und hat die Bundesregierung klimaneutralisierende Maßnahmen ergriffen, wenn ja, welche, wenn nein, warum nicht?
War, angesichts der Auffassung der Bundesregierung, das Thema KI würde „insbesondere im Hinblick auf Geschlechterungleichheiten“ diskutiert (www.bmz-digital.global/biases-und-ki-wie-neutral-ist-technologie/#:~:text=K%C3%BCnstliche%20Intelligenz%20(KI)%20ist%20eine,insbesondere%20im%20Globalen%20S%C3%BCden%2C%20verst%C3%A4rken) sowie angesichts der Tatsache, dass die Bundesministerin für Bildung und Forschung Bettina Stark-Watzinger innerhalb der Bundesregierung für das Thema Künstliche Intelligenz federführend ist, nicht jedoch Bundesverkehrsminister Dr. Volker Wissing (www.bundesregierung.de/breg-de/themen/digitalisierung/digitalpolitik-2072890), die deutsche Delegation geschlechterneutral zusammengesetzt, wenn nein, warum nicht, und welche Geschlechter waren nicht vertreten oder unterrepräsentiert (bitte einzeln auflisten)?
Welche Kosten sind durch die Teilnahme der deutschen Regierungsvertreter entstanden, und aus welchem Einzelplan werden diese beglichen?
Welche Positionen haben die EU-Vertreter im Rahmen der Konferenz vertreten, waren diese Positionen abweichend zu den deutschen Positionen, und wenn ja, zu welchen Aspekten?
Welche Möglichkeiten sieht die Bundesregierung, den sich in Verhandlung befindenden europäischen AI-Act wirtschaftsfreundlicher auszugestalten, angesichts der Konferenzaussage von Bundesverkehrsminister Dr. Volker Wissing, einen „Wettbewerb um die schärfste Regulierung“ dürfe es aber nicht geben, weil das zu massiven wirtschaftlichen Nachteilen führen würde (www.sueddeutsche.de/wirtschaft/ki-gipfel-blechtley-park-grossbritannien-kuenstliche-intelligenz-1.6297377)?
Kann die Bundesregierung Medienberichte bestätigen, nach denen der chinesische Vertreter Wu Zhaohui, Vizeminister für Wissenschaft und Technologie in der Volksrepublik China, KI als „unsicher, unerklärlich und intransparent“ bezeichnete (www.sueddeutsche.de/wirtschaft/ki-gipfel-blechtley-park-grossbritannien-kuenstliche-intelligenz-1.6297377), und decken sich diese Äußerungen mit den Einschätzungen der Bundesregierung?
Betrachtet die Bundesregierung den Standpunkt der Deklaration, dass die weltweiten Regulierungsansätze je nach nationalen Gegebenheiten und geltenden rechtlichen Rahmenbedingungen unterschiedlich sein können (vgl. Vorbemerkung der Fragesteller), als Absage an einen gemeinsamen, weltweit gültigen Regulierungsansatz, und wenn ja, welche Schlussfolgerungen zieht die Bundesregierung daraus für ihre Gestaltung einer künftigen nationalen und europäischen KI-Regulierung?
Werden Vertreter der Bundesregierung an der geplanten Folgekonferenz im Jahr 2024 (vgl. Vorbemerkung der Fragesteller) teilnehmen, und wie begründet die Bundesregierung ihre Planung?
Beabsichtigt die Bundesregierung, die geplante Folgekonferenz im Jahr 2024 (vgl. Vorbemerkung der Fragesteller) in Deutschland auszurichten, und wie begründet die Bundesregierung ihre Planung?
Beabsichtigt die Bundesregierung, künftig ein eigenes Konferenzformat in Deutschland auszurichten, um dem selbstgesteckten Ziel, Künstliche Intelligenz Made in Germany an die Weltspitze zu bringen, gerecht zu werden (www.ki-strategie-deutschland.de/home.html), und wie begründet die Bundesregierung ihre Planung?
Liegen der Bundesregierung nähere Informationen zu den in UK und den USA geplanten „AI Safety Institute“ vor, und wenn ja, welche (vgl. Vorbemerkung der Fragesteller, plant die Bundesregierung die Gründung einer vergleichbaren Einrichtung in Deutschland, und wie begründet die Bundesregierung ihre Absicht, wenn nein, welche existierende Einrichtung in Deutschland könnte die Funktion des AI Safety Institute wahrnehmen)?
Teilt die Bundesregierung die Meinung von EU-Kommissarin Margarethe Vestager, dass die Regulierung des europäischen AI-Acts zu spät komme (vgl. Vorbemerkung der Fragesteller), wenn ja, wird sich die Bundesregierung im Rahmen der Trilog-Verhandlungen für eine Verkürzung der Übergangsfrist einsetzen, wenn nein, warum nicht?
Hat die Bundesregierung einen Überblick darüber, welche in den USA in Anwendung befindlichen KI-Programme für Bürger in Deutschland nicht verfügbar sind, wie z. B. das neue KI-Modell Gemini im Google-Chatbot Bard (www.spiegel.de/netzwelt/web/gemini-google-stellt-neues-ki-modell-vor-und-spricht-von-einer-neuen-aera-a-8029db34-5ca3-417a-b768-2968701dae7e), und stehen außereuropäische KI-Anbieter vor ihrem Markteintritt in Deutschland in Kontakt mit deutschen Behörden, wenn ja, zu welchen KI-Anbietern gab es bereits Kontakte, und welche Ergebnisse wurden dabei erzielt bzw. welche Maßnahmen wurde vereinbart?