Datenpolitik #22: Die Mathematik der Massenüberwachung
Kommt die Chatkontrolle, müssten gegen jeden Österreicher mindestens einmal im Jahr zu Unrecht Ermittlungen wegen Kinderpornographie gestartet werden. Das ist Mathematik.
In den 90ern galt Larry Ellison ja mal als nicht ganz uncool für einen Techo-Boss. Damals gab es auch nur Bill Gates als vergleichbares Role Model. Steve Jobs hatte ja eine Auszeit bei Apple. Heute stimmt Ellison aber überaus überflüssig in den unsinnigen Kanon zur Massenüberwachung ein und schwadroniert von leicht machbarer Kontrolle (das ist richtig, vieles an Massenüberwachung ist technisch keine Hexerei) die Menschen dazu bringen werde, sich von ihrer besten Seite zu zeigen (das ist Unsinn, wenn man gegenseitiges Bespitzeln und wachsende Verlogenheit nicht gerade zum Besten der Menschheit zählt).
Man könnte solche Einlassungen alternder Reicher ignorieren wie jene von Frank Stronach, wären solche Dummheiten nicht Wasser auf die Mühlen jener, die es auch nicht besser wissen, sich nun aber auf einen vermeintlich Fachkundigen berufen können. Damit sind wir einmal mehr bei der Datenpolitik.
Mathematik spricht gegen Massenüberwachung
Überwachung bleibt ein Politthema für diesen Herbst. Magnus Brunner soll sich als EU Kommissar in Zukunft einmal mehr um Vorratsdatenspeicherung kümmern. Deutschland verpasst sich neue Digitalgesetze. Die Chatkontrolle, also die anlasslose Überwachung sämtlicher Massenkommunikation, ist nach wie vor noch nicht vom Tisch.
Die neue Digitalkommissarin Henna Virkkunen ist immerhin Philosophin und war im Pegasus-Untersuchungsausschuss beschäftigt, der die Verbreitung der Pegasus-Spionagesoftware in Europa untersuchte.
Letztes sind gute Voraussetzungen. Trotzdem schadet ein wenig Mathematik nicht. Die Mathematik der Massenüberwachung zeigt nämlich recht deutliche Grenzen für Überwachungsphantasien auf.
Es gibt einiges an mathematischen Aufsätzen zum Thema. Nehmen wir für ein paar Rechenbeispiele zur Illustration der Chatkontrolle her. Das Versprechen der Behörden und neugieriger Innenminister, die sich mehr und mehr Daten verschaffen wollen, ist: Technische Hilfsmittel erleichtern und beschleunigen die Ermittlungsarbeit. Damit können per Messenger verabredete Komplotte oder Attentate rechtzeitig verhindert werden. Einwände, etwa dass nicht einmal der dokumentierte Kauf von Sturmgewehren und Munition (im Fall des Allerheiligenattentäters in Wien), der Probelauf für eine Amokfahrt (im Fall des Swift-Attentäters von Wien) oder ein Waffenverbot und auf dem Handy dokumentierte Anschlagsphantasien (im Fall des Gedenkstättenattentäters von München) den relevanten Behörden irgendeine zielführende Aktivität entlockten, werden beredt beschwiegen. Allenfalls verweist vielleicht ein besorgter Innenminister einmal mehr auf notorische Budget- und Personalknappheit in seinem Ressort.
Hier wird nun Mathematik nützlich. Technik, so die Idee, liefert mit raffinierten Algorithmen punktgenaue Hinweise. Klassifikationsalgorithmen können in der Tat mit ein wenig Training sehr präzise werden. Nehmen wir der Einfachheit halber eine Trefferquote von 99,9 % an. Das heißt, wir stellen uns ein Überwachungstool vor, dass nur in 0,1 % der untersuchten Fälle Fehler liefert.
In Österreich wurden 2023 95 Milliarden Nachrichten über Messengerdienste verschickt, Emails und SMS sind in dieser Summe nicht enthalten. Umgelegt auf alle 9 Millionen Österreicherinnen von der Großmutter bis zum Neugeborenen macht das etwa 30 Nachrichten pro Tag oder 1000 Nachrichten im Monat.
95 Milliarden Nachrichten im Jahr in etwa 800 Millionen Nachrichten im Monat. Wenn wir den super treffsicheren Algorithmus auf diese Menge anwenden, haben wir bei einer Fehlerquote von 0,1 % noch immer 800.000 Fehlalarme pro Monat.
Das zieht zwei bemerkenswerte Konsequenzen nach sich: Welche Behörde Österreichs wäre in der Lage, 800.000 Anzeigen pro Monat zu bearbeiten? Technik hilft hier nicht mehr - die hat die Anzeigen erstellt.
Die zweite Rechnung: 800.000 Fehlalarme pro Monat sind knapp 10 Millionen Fehlalarme pro Jahr. Das bedeutet: Nachdem hier Technik am Werk ist und Beamten-Bias ausgeschaltet ist, verteilt sich das gleichmäßig auf alle Menschen, statistisch gesehen müsste also einmal im Jahr fälschlicherweise gegen jeden Österreicher und jede Österreicherin wegen des Besitzes von Kinderpornographie ermittelt werden.
Was wäre damit für die Polizeiarbeit gewonnen? False Negatives, also fälschlicherweise als harmlos eingeschätzte Nachrichten sind hier noch gar nicht erwähnt.
Auch wenn wir die Rechnung radikal reduzieren, wird das Ergebnis nicht viel besser. Rechnen wir neu, diesmal haben wir aufgrund polizeilicher Vorarbeiten und gründlichen Profilings die Menge der zu analysierenden Nachrichten auf ein Prozent eingeschränkt. Statt mit 95 Milliarden im Jahr haben wir es nur noch mit einer Milliarde zu tun, also mit etwa 8 Millionen im Monat. Was bedeutet das für die Fehlerquote von 0,1 % in der Klassifikation? Wir haben 8000 Fehlalarme im Monat. Das erledigt man auf dem Amt bestimmt zwischen zwei Wurstsemmeln.
Technology can‘t escape math, heißt es in einem der Paper, die das vorrechnen und Massenüberwachung als Bedrohung für die Gesellschaft betrachten. Weitere Berechnungen gibt es in zahlreichen Papers.
UN-zertifizierte AI-Technobürokraten
Mario Draghi kritisierte den EU AI Act in seinem Report zur Wettbewerbsfähigkeit Europas. Vielleicht kommt es ja doch anders - nicht weil der AI Act so toll wäre oder anhand dieser Kritik modifiziert würde, sondern weil ein eigens ins Leben gerufener 39köpfiger UN-Rat nun Empfehlungen für eigene Regeln auf UN Ebene verabschiedet hat.
Der Report fordert globale Regeln und Kooperation, um Undurchsichtigkeit und Autonomie von KI-Systemen zu begegnen. Die Regulierung mächtiger Technologie solle nicht allein dem Markt überlassen werden.
Besonderer Punkt der UN Arbeitsgruppe ist multilaterale Inklusion. Selbst wenn alle internationalen AI Regulierungs-Initiativen zusammengerechnet werden, sind 118 Nationen in keine internationalen AI Boards eingebunden.
In seinem Endbericht gibt das Board sieben Empfehlungen: Diese umfassen die Einrichtung eines internationalen wissenschaftlichen Panels, eines institutionalisierten halbjährlichen Dialogs zur AI Politik und eine Harmonisierung von AI Standards, die sich in den letzten zwei Jahren vervielfacht haben. Die vierte Empfehlung fordert die Einrichtung von Kapazitätsnetzwerken zur Herausbildung von KI-Kompetenz. Das ist wohl etwas ähnliches wie die Einrichtung sogenannter KI-Fabriken, die EU-Institutionen vergangene Woche gefordert haben. Zur Überbrückung eines AI Gaps wird als fünfter Schritt die Einrichtung eines internationalen AI Fonds empfohlen, der Finanzen und Rechenpower global fairer und effizienter verteilen soll. Punkt 6 betrifft ein globales AI Data Framework, das unter anderen Trainingsdaten und die damit verbundenen Rechtefragen klären soll. Und schließlich soll im UN Generalsekretariat ein eigenes AI Office eingerichtet werden. Überlegungen zur Organisation all dieser Gremien, Offices und Boards gibt es natürlich schon.
Es wird eine Fülle an Technobürokraten brauchen, um diese Regeln auszuarbeiten und diese Gremien zu besetzen. Und wir werden Regeln für die Kompetenzen, Ausbildung und Bestellung dieser Technobürokraten brauchen.