Archive for August, 2017

AnFIfF

Sonntag, August 6th, 2017

V1.1a / 2017-1031

Die FIfF-Kommunikation 2017/02 ist schon vor einigen Wochen erschienen (FIfF-Webseite, FK-2017/02). Ich schleppe sie seit fast so vielen Wochen auch schon mit mir. Ein erster Scan der Artikel hatte in mir Ärger aufsteigen lassen.

Ich möchte vorweg schicken, ich bin Mental-FIfFler. Ich fühle mich der Szene, die Informatik und Gesellschaft (fällt das nur mir auf… es müsste doch heissen: “Informatik und Soziologie” oder “Technik und Gesellschaft”) zusammen denken möchte, ganz eng verbunden. Und deshalb ist es nicht hinnehmbar, wenn diese mir so mental und politisch nahestehende Szene, die gern im auch von mir geschätzen Modus des gepflegten Besserwissens agiert, Artikel abliefert, die an den theoretisch entscheidenden Stellen noch schlechter argumentieren als die miesesten Lobbyisten-Artikel. Während man Lobbyisten Respekt zollen kann für gutes Handwerk, wenn es ihnen nämlich gelingt, dass Verantwortung verschleiert wird und Analyseframeworks mit kritischem Anspruch verschmieren, wird es bei Autoren des eigenen Lagers schwierig, den gebotenen Respekt entgegenzubringen, wenn sie zwar im kritischen Duktus daherkommen aber nicht einmal das Analyse- und Darstellungsniveau von intelligenten Lobbyisten erreichen. Schlechte FIfF-Artikel sind insofern schlimmer, gerade weil man bei ihnen meinen darf, Artikel vertrauensvoll-naiver lesen zu dürfen. Nee, das sollte man genau nicht.

Ich fange mal mit dem Artikel von Britta Schinzel an. Die habilitierte Informatikerin stellt fest, “Algorithmen sind nicht schuld (…)” und fragt weiter “(…), aber wer oder was ist es dann?” (S. 5ff). Ich war wirklich dankbar für das Aufgreifen dieses Themas. Schließlich muss dringend mal wieder etwas her angesichts dieses überbordend grauenhaften Räsonnierens über “Algorithmen-Ethik” der letzten Monate allenthalben. Die Fragestellung ist aus meiner Sicht also top gewählt, ihre Erläuterungen zu Algorithmen sind konventionell aber lesenswert. Das Zwischenfazit, dass Algorithmen nicht verantwortlich gemacht werden können, ist erwartungsgemäß. Gut, das muss alles mal wieder gesagt werden; ihr Durchdeklinieren von Algorithmen-Schichten bis zu sozialen Netzwerken finde ich sogar ganz spannend. Alles klug, richtig und lesenswert … aber: Sie gibt am Ende keine Antwort auf ihre selbst gestellte Frage, wer denn schuld sei! Die Frage nach der Schuld – sie denkt bei Schuld weder theologisch noch ökonomisch, sondern irgendwie, das will ich selbstverständlich nicht so eng sehen, wenn jemand zwar für den richtigen Gebrauch von Begriffen plädiert, dem Anspruch aber selber offensichtlich nicht gerecht wird, aber wer wird das schon? – wird wenig konturiert. Es scheint in kritischer Absicht ja klar zu sein, es geht irgendwie um Computerdominanz, problematische Entscheidungen über Menschen, die technisch generiert werden, irgendwie also auch um Datenschutzprobleme. Man weiss schließlich ohnehin, es läuft gerade sehr viel sehr schief im Gebrauch von Computertechnik, für den sie zu Recht Expertise beansprucht. Sie gerät an den Stellen, an denen man nun zum Ende hin Antworten erwarten darf, in das konventionell klassisch, vermeintlich kritische Fahrwasser der Feststellung, dass ja Menschen am Ende Programme schrüben oder neuronale Netze trainieren, es ist nicht die Technik an sich. Diese Antwort reicht aber nicht bei einem analytisch-kritischen Anspruch. Sie ist in dieser Form irreleitend und trägt genau nicht zur Transparenz bzgl. Verantwortung bei, zu der sie ja beitragen wollen.

Dass Prof. Schinzel den Fokus nicht schärfer stellen und entsprechend keine gehaltvolle Anwort anbieten kann, liegt ersichtlich zum einen an Mangel an gesellschaftstheoretischer als auch grundrechtsjuristischer Bildung. In der FIfF verzeiht man beide Kognitionsdellen traditionell schnell und gern. Dabei gehört nicht viel dazu, die doch ganz gut angefangene Erzählung zu vervollständigen: Algorithmen bzw. deren Inkarnationen werden von Organisationen genutzt. Es sind, einen Schritt konkreter formuliert, Unternehmen, Behörden, Krankenhäuser, Forschungsinstitute gemeint, die allesamt Technikgebrauch motivational aufladen. Dabei ist “motivational” nicht psychologisierend zu verstehen, sondern es sind, wenn man schon irgendwie “den Menschen” thematisiert, Rollen gemeint, also Hülsen, die Organisationen erzeugen und bereitstellen, mit denen Personen dann die Organisationsmotive übernehmen. Diese Feststellung bzgl. Organisationen und Rollen kann man trivial finden, sie ist trivial; sie ist Prof. Schinzel aber offenbar gar nicht in den Sinn gekommen. Weil es zu trivial ist? Das glaube ich gar nicht. Wenn sie Organisationen in ihre Analyse mit aufnähme, ließen sich tatsächlich politische Forderungen formulieren und adressieren. Genau das macht bspw. das Datenschutzrecht in Bezug auf die Anwendung von IT in Organisationen. Es werden an alle Organisationen dieser Welt ganz spezifische Anforderungen gestellt, die im Prozess der Zivilisation entwickelt wurden und als Datenschutzrecht – in der aktuellen Inkarnation der Datenschutzgrundverordnung der EU (DSGVO), und dort in den “Grundsätzes” des Artikels 5 – auskristallisierten, mehr als die DSGVO ist gegenwärtig politisch offenbar nicht drin, aber immerhin. Denn Datenschutz operationalisiert Grundrechte. Was sind Grundrechte? Grundrechte sind Abwehrrechte von Personen (also Risikonehmer) gegenüber Organisationen (als asymmetrisch ungleich stärkere Risikogeber). Wobei es noch gar nicht um die notorisch unsichere Informationstechnik geht, die Organisationen benutzen, wenn sie Menschen als Objekte behandeln, sondern es geht darum, dass Organisationen in das Handeln und Denken von Personen eingreifen. Jedenfalls: In diesem Kontext nicht von Organisationen zu sprechen verschleiert die durch Technik ungeheuer angewachsene Macht der Organisationen. Prof. Schinzel wirft am Ende wieder einen Schleier über das, was zuvor dankenswert professionell ins Licht gestellt wurde.

Leider ist der mäßig geratene Artikel von Prof. Schinzel in dieser FIfF keine Ausnahme. So befasst sich Frau Tornow mit der “Beurteilung des Datenschutzes anhand ausgewählter Kriterien” (S. 30ff). Sie stellt heraus, dass die Mühen der Einarbeitung in gesetzliche Grundlagen abschreckend hoch sei; zu komplex sei das Ganze für den normalen Menschen. Sie stellt dann ein kriterienbezogenes System vor, das für alle Nutzer einen umfassenden Überblick zum Schutz der eigenen personenbezogenen Daten ermöglichen soll. Es geht ihr, entgegen der Zusage im Titel, dann aber doch nicht um Kriterien für Datenschutz, sondern nur um Kriterien für Datenschutzerklärungen. Kriterien… na da wollen wir doch mal sehen, ob Frau Tronow die Schutzziele nacherfindet, flüstert mir mein interner Coleser an meine inneren Anklangnerven. Oder ob sie zumindest in die semantische Nähe von diesen gerät. Frau Tornow diskutiert und verwirft sehr kurz das ohnehin obsolete BDSG, die ebenso obsolete EU-Richtlinie 95/46/EG und das demnächst gleichfalls obsolete Privacy Shield. Okay, ist alles abgestandenes Zeugs, sie hatte offenbar keine Lust, noch mal Arbeit in die Lektüre der DSGVO reinzustecken, ein bißchen Pfusch, den verstehe ich, der sei ihr verziehen, ihr Modellierungsansatz kann trotz des obsoleten Regelbezugs frisch sein.

Und dann listet sie ihre Kriterien auf und mir verschlägt es den Atem: Sie hat ihr Regelwerk und ihren Kriterienkatalog nicht durch eine Abstraktion der bestehenden Regelwerke des Datenschutzes gewonnen, gar an den Grundrechten, sondern durch Analyse der Datenschutzrichtlinien von Facebook, Amazon, Valve und DropBox. Sie versteht offenbar nicht, dass man von ihr, bei ernsthaftem Interesse an Datenschutz, verlangen darf oder auch muss, nämlich für einen Moment das Humesche Problem zu ignorieren und zu versuchen, aus einem verpflichtend bestehenden Normenwerk (Datenschutzrecht) ein dazu passendes funktionales System zu generieren. Erdiger formuliert: Sie versteht den normativ-regulatorischen Stellenwert der Grundrechte nicht. Stattdessen nimmt sie irgendwelche Kriterien höchst verdächtiger Quellen, weil diese ihr offenbar nützlich und funktionaler erscheinen. Es geht ihr dann, und das ist typisch für fehlendes Grundrechteverständnis von TechnikerInnen, wesentlich nur noch um Transparenz, Transparenz wird zum Selbstzweck. Typisch für einen durchökonomisierten Blick auf Grundrechte, wonach Selbstbestimmung durch eine möglichst große Auswahl an Angeboten umsetzbar ist, die man nur überblicken können muss.

Ich kann sehr gut verstehen, dass man Datenschutzrecht für kompliziert hält. Ich verstehe sogar noch viel besser, dass man auch so gar nichts mehr von Datenschutzaufsichtsbehörden erwartet und man sich dort nicht einmal mehr umsieht, was diese vielleicht zur Lösung von Datenschutzkonflikten verlautbart haben. Aber die überbordende Fachliteratur der letzten 30 Jahre zu Themen wie “Kriterien für einen wirksamen Datenschutz” schlicht vollständig zu ignorieren? Das ist für einen FIfF-Artikel inakzeptabel schlecht. Gerade seit 2010 hat eine sehr wichtige Konsolidierung von Datenschutzkriterien (“Gewährleistungsziele”) im Kontext des Standard-Datenschutzmodells stattgefunden, die einen reflektierten Versuch der Abstraktion, Generalisierung und Operationalisierung von Datenschutz-Anforderungen zum Zwecke der technisch-organisatorischen Umsetzung darstellt. Wenn also nicht einmal die kritische Technikintelligenz um den Status des Datenschutzrechts und um die Aktivitäten des operativen Datenschutzes weiss, dann ist das im Kontext des Verflüchtigens von Datenschutz eine weitere analytische und politische Katastrophe. Immerhin: Das Beurteilungssystem für Datenschutz-Maßnahmen, das Frau Tornow dann im Anschluss entwickelt hat, ist es durchaus wert, sich näher damit zu befassen.

Ich könnte weitere der Beiträge aus der FIfF diskutieren. Bspw. verschwimmt bei der Frage nach der Konditionierung von Robotern (Schott/ Sichtung) ganz typisch, wie schon bei Frau Schinzel, die klare Adressierbarkeit der Verantwortung für Entwicklung und Einsatz von Techniken. Auch der Artikel, der die Frage nach dem nun aber mal ganz echten Wert personenbezogender Daten (Krüger) bewegt, ist von bedrückender Trivialität; allein angesichts der seit mindestens 60 Jahren währenden Diskussion zur Ökonomisierung von Grundrechten. Dabei ist die Diskussion entschieden: Eine Ökonomisierung des Rechts entspräche dem Auflösen des Rechts, zugunsten wirtschaftlicher Entscheidungen. Es ist gerade das Kennzeichen der Moderne, dass mit ihr Recht, Wirtschaft und Wissenschaft funktional differenziert und eigensinnig sich selbst begründend stabilsiert wurden.

An diesen thematisch wichtigen und im Grundsatz gehaltvollen Beiträgen wird deutlich, was leider auf viele FIfF-Artikel zutrifft: Viele Autoren haben kein hinreichend entwickeltes Verständnis von Grundrechten oder von deren Operationalisierung durch Datenschutz; und sie haben ebenso wenig einen Begriff von Gesellschaft. Sich in beiden Semantiken auszukennen bekommt man allerdings auch nicht geschenkt. Und wenn man begrifflich rumpfuscht – unter Datenschutz irgendwie nur IT-Sicherheit für personenbezogene Daten und unter Gesellschaft wenig mehr als eine Ansammlung vieler Menschen versteht -, dann passiert eben genau das, was Prof. Schinzel beim unkritisch analogisierenden Gebrauch des Algorithmen-Begriffs zu Recht beklagt, nämlich dass die Semantiken verwässern. Mit der Folge, dass man keine ernsthafte Kritik mehr formulieren kann, allenfalls noch zu skandalisieren und zu moralisieren übrig bleibt; und es immer schwieriger bis unmöglich erscheint, überhaupt noch klare politische Anforderungen an verantwortliche Adressaten zu formulieren. Der Adressat für Anforderungen ist nicht “die Technik” unmittelbar, und die Anforderungen sind auch nicht irgendwelche und zu kompliziert, sondern es sind Technik verwendende Organisationen, die Grundrechte einzuhalten haben.