KI-Standards als Papiertiger
Die Münchner Sicherheitskonferenz, vor 58 Jahren ins Leben gerufen, gehört zu den meistbeachteten globalpolitischen Gremien, auf der Außen- und Verteidigungspolitiker ebenso wie Sicherheitsexperten darüber beratschlagen, wie der fragile Frieden angesichts völkerrechtswidriger Überfälle gesichert werden kann. Inzwischen richtet sich der Fokus auf asynchrone Kriegsführung aus dem Cyberspace – und zum ersten Mal erhielt beim Meeting Anfang des Jahres auch die Frage ein wenig Raum, wie künstliche Intelligenz Cyberattacken und Kriegsführung beeinflussen könnten…
Inzwischen hat sich mit dem Bletchley Park AI Safety Summit eine globale Sicherheitskonferenz gegründet, die ausschließlich KI in den Mittelpunkt ihrer Diskussion stellt. Zur Gründungsveranstaltung haben zahlreiche Länder – darunter Deutschland, die USA und China – die Bletchley Declaration unterzeichnet und sich damit für mehr Zusammenarbeit bei der Entwicklung und Regulierung von Künstlicher Intelligenz ausgesprochen. Jetzt haben sich auf der Nachfolgekonferenz zum Bletchley Park AI Safety Summit im südkoreanischen Seoul 16 Technologiekonzerne entschieden, dieser Absichtserklärung ebenfalls beizutreten. Zu den Unterzeichnern gehören neben den Tech-Giganten Amazon, Google, IBM, Meta, Microsoft und Samsung Electronics auch KI-Startups wie OpenAI, Mistral AI oder Anthropic. Nicht dabei sind übrigens die Deutschen SAP und Aleph Alpha.
Ist es der Startpunkt für eine Sicherheitskonferenz 2.0, die sich ausschließlich den Gefahren widmet, die aus KI-Systemen kommen können? Noch ist der Summit – wie auch die Münchener Sicherheitskonferenz – ein Papiertiger, bei dem viele Worte gewechselt werden und wenig Verpflichtendes zustande kommt. Denn auch die Bletchley Declaration verpflichtet zu nichts. Die Absichtserklärung bleibt im Vagen und Ungefähren. Konkretes soll es erst Anfang des kommenden Jahres geben, wenn der Summit wieder zusammentrifft – diesmal in Paris.
Jedenfalls, wenn es nach den Vorstellungen von Frankreichs Präsident Emmanuel Macron geht. Der nutzte die Hightech-Ausstellung VivaTech (kurz für Viva la Technologie) für seine Ankündigung, Paris zur Hauptstadt für KI und KI-Sicherheit zu machen. „KI ist Kern von allem“, brachte er die Lage auf den Punkt. Denn KI-Tools verändern nicht nur Arbeitsplätze und Geschäftsprozesse. Sie sind auch über kurz oder lang in praktisch jedem Produkt vorhanden. Selbst der Bürostuhl, der sich an die Gewohnheiten seines Sitzpartners anpasst, dürfte nicht mehr ohne auskommen.
Deshalb hat jetzt auch der Europäische Rat den schon vom Europaparlament verabschiedeten AI Act endlich durchgewinkt, der vor allem KI-Systeme reglementieren soll, durch die kritische Infrastrukturen gesteuert, aber auch Persönlichkeitsrechte verletzt werden könnten, weil sie soziale Bewertungen vornehmen sollen. Und auch hier gilt: es bleibt alles im Vagen und Ungefähren. "Ob KI in Deutschland und Europa einen Schub erhält oder vor allem vor neue Hindernisse gestellt wird, hängt entscheidend davon ab, wie dieser Rahmen ausgestaltet und die Regelungen in Deutschland umgesetzt werden", kommentierte Bitkom-Präsident Ralf Wintergerst die europäische Gesetzesinitiative.
Doch bis dahin wird ohnehin noch viel Wasser den Rhein hinabfließen. Bis sich in Paris die Staaten und Unternehmen wiedertreffen, um Absichtserklärungen in klare Regeln zu verwandeln, wird ein knappes Jahr vergehen. Und ehe der AI Act in den europäischen Mitgliedsländern in gültiges Recht umgewandelt wird, dürfte sogar noch mehr Zeit ins Land gehen. Bis dahin, das zeigen die Erfahrungen seit November 2022, als OpenAi Chat-GPT veröffentlichte, wird die KI-Entwicklung weiter rasant fortschreiten.
Wie sehr inzwischen Schnelligkeit und Sicherheit miteinander konkurrieren, wenn nicht gar gegeneinander ausgespielt werden, zeigt die Posse um die Führungsposition bei OpenAI. Im November wurde CEO Sam Altman kurzzeitig entlassen, weil Aufsichtsrat und Altmann darüber uneinig waren, ob Schnelligkeit bei der Produktentwicklung vor Genauigkeit bei Sicherheitschecks gehen darf. Gesiegt hat, nicht ohne Beteiligung von Microsofts CEO Satya Nadella, Sam Altmann und damit der Primat der Schnelligkeit. Das zeitigt Folgen: eben hat das komplette Sicherheitsteam bei OpenAI, darunter der aus Deutschland stammende Jan Leike, das Unternehmen verlassen, weil ihm die nötigen Ressourcen verweigert wurden.
Kaum zu glauben, dass Tech-CEOs um Elon Musk vor knapp einem Jahr gemahnt hatten, bei der KI-Weiterentwicklung vom Gas zu gehen. Was wohl eher als fadenscheiniger Versuch zu werten ist, den Vorsprung der KI-Vorreiter zu verringern, zeigt heute, wie sehr Schnelligkeit inzwischen vor Sicherheit rangiert. Doch Unternehmen wie Microsoft haben längst den Ernst der Lage verstanden und sich selbst mit Standards ausgestattet, die eine „verantwortliche KI“ sicherstellen sollen.
In der Tat: Wir brauchen eine Sicherheitskonferenz 2.0, die sich ausschließlich mit den Rahmenbedingungen für künstliche Intelligenz befasst. Allerdings ist zu befürchten, dass der künftige Pariser AI Safety Summit das Schicksal der Münchner Sicherheitskonferenz teilt: viele wichtige Impulse, aber keine konkreten Folgen. Wir sind offensichtlich an einem Punkt angelangt, an dem KI-Standards nur noch durch das Verantwortungsbewusstsein der Entwickler und ihrer Unternehmen durchgesetzt werden können. Microsoft ist hier durchaus ein Vorbild.









