Bürger, teilt eure Daten!

Sandra Kegel, Feuilleton-Leiterin bei der FAZ, findet den Datenschutz der Corona-Warn-App problematisch. Ihre Forderung:

Würde man ihnen [den Gesundheitsämtern] Zugriff auf die App-Daten gewähren, hätten sie hierzu ein schlagkräftiges Instrument zur Hand. Längst wird diskutiert, ob zur Infektionsbekämpfung der Polizei Zugang gewährt wird zu Privaträumen. Dann doch lieber ein temporärer Zugang zu Geo- und Kontaktdaten.

Das Problem: Die Corona-Warn-App sammelt diese Daten gar nicht, sie kann es über die entsprechende Schnittstelle auch nicht.

Aber weiter im Text:

Überhaupt fragt man sich, warum in diesen Krisenzeiten unsere analogen Freiheiten wie die Bewegungsfreiheit ganz schnell eingeschränkt werden konnte, während wir digital bislang relativ unberührt geblieben sind.

Das ist ein seltsames Argument: Wenn schon Freiheiten einschränken, dann richtig? Der Unterschied zwischen analog und digital ist natürlich etwas altbacken, aber ich möchte anmerken, dass eine Einschränkung der Bewegungsfreiheit eine Sache ist, das Auslesen eines Bewegungs- und Kontaktprotokolls aber eine andere, nämlich im Sinne der informationellen Selbstbestimmung eine verfassungswidrige. Aber wie gesagt: Die gewünschten Daten stehen hier gar nicht zur Verfügung.

Ich habe damals zum Start im DLF kommentiert:

„[Es ist] ein Kompromiss zwischen dem, was technisch machbar, bürgerrechtlich wünschenswert und epidemiologisch notwendig ist. Mit einer deutlichen Gewichtung der Bürgerrechte: Mancher in Robert-Koch-Institut und Gesundheitsministerium hätte sich gewünscht, Daten aus der App zu erhalten. Denn ein digitales Abbild der Infektionsentwicklung hilft dabei, die Verbreitung des Virus besser zu verstehen.

Diese komplexe Debatte scheute die Regierung am Ende. Auch aus Furcht davor, das Vertrauen der Bürger zu verspielen. Eine Diskussion über die Abwägung zwischen 100prozentiger Datensparsamkeit und wissenschaftlicher Erkenntnis: Das hätte sich Deutschland leisten können.“

Das bezog sich allerdings auf den Kontext epidemiologische Analyse, nicht auf Kontaktnachverfolgung durch ex-post Überwachung. Jetzt ist die Debatte da, aber sie ist nicht nur angesichts der API weitestgehend müßig, sondern wird auch – die obige Wortmeldung ist nicht die erste dieser Art – teilweise ohne große Kenntnis der Materie geführt.

Unlimited Information Is Transforming Society

Faszinierende Kartierung technologischer Entwicklungen: Nach welchen Mustern verlaufen sie, und umgekehrt, welche Muster sollte man nicht verallgemeinern?

In one sense, the history of the Internet is the opposite of electricity’s: the private sector developed electrical generation, but it took the government to distribute the product widely. In contrast, the government developed the Internet, but the private sector delivered it into our homes—a reminder that casual generalizations about technology development are prone to be false.

Do No Harm ($)

Das, was wir „Content-Moderation“ nennen, ist bekanntermaßen alles andere als perfekt. Niloufar Salehi nennt im neuen Logic-Magazin das Beispiel Rachepornografie: Ein Opfer muss das entsprechende Material hochladen, damit Facebook ein Wasserzeichen für das Blocken erstellt. Die Betroffenen erfahren aber nicht, ob jemand danach versucht, das Video nochmal hochzuladen. Beweise für Gerichtsverfahren erhalten sie ebenfalls in der Regel nicht.

Sie schlägt deshalb einen anderen Weg vor, im Sinne von „Restorative Justice“, also Vergebungsprozessen. „Wer wurde verletzt? Was braucht diese Person? Wer hat Sorge zu tragen, dass diese Bedürfnisse erfüllt werden?“, sind drei Fragen, die eine solche Herangehensweise stellt. Letztlich geht es darum, bei solchen Fällen geschulte Mitarbeiter einzusetzen, die sich mit den Trauma-Dimensionen von Online-Bösartigkeiten auseinandersetzen.

Das funktioniert nicht bei einem Riesen-Netzwerk. Aber ich kann mit theoretisch vorstellen, dass eine solche Betreuung in einigen Jahren zur Zulassungsvoraussetzung gehören könnte, überhaupt Soziale Netzwerke (die dann reguliert viel kleinere Maximalnutzerzahlen hätten) betreiben zu dürfen.

Casey Newton: Platformer

Casey Newton verlässt The Verge und macht einen eigenen Substack-Newsletter. Wer ihn nicht kennt: Sein bisheriger Newsletter „The Interface“ war im Kontext Tech das, was man abgedroschen als „Leseverpflichtung“ bezeichnet. Genau deshalb bin ich verwundert, dass er „nur“ 20 000 Abonnenten hatte. Nicht falsch verstehen: Das ist eine Menge, aber für ein derart relevante, kostenlose Publikation, noch dazu in englischer Sprache… ich dachte, die Nische wäre größer.

Was natürlich nichts daran ändert, dass ich darauf hoffe, dass im Journalismus viele kleine Boote den langsamen Untergang der großen Tanker kompensieren. Und dass ich mit großer Sicherheit ein Abo abschließen werde. Ein ähnliches, älteres Projekt mit Schwerpunkt Social-Media-Plattformen ist das deutsche Social Media Watchblog, das ich Interessierten ans Herz lege. Und auch von mir wird drüben auf dieser Baustelle hier in den kommenden Wochen mehr passieren, allerdings vorerst nicht auf Monetarisierung ausgelegt.

Seeing Like an Algorithm von Eugene Wei

Eugene Wei mit einem weiteren TikTok-Essay. Ein bisschen banal erscheinen die Erkenntnisse schon: Wenn „Künstliche Intelligenz“ bedeutet, dass ein Computer sehen lernt, dann folgt TikTok als erstes (?) Netzwerk diesem Prinzip: Design für Datenfütterung, also ein geschlossenes Feedback-Loop, an dem die Software lernen kann. Demnach löst „algorithmen-freundliches Design“ das Prinzip von reibungslosem, „nutzerzentriertem“ Design ab. Damit wird auch die „Followerschaft“ sozialer Netzwerke von einem anderen Paradigma abgelöst: sofware-basierte Interessen.

Dass das banal klingt, heißt nicht, dass es falsch ist. Um seine These zu stützen, muss Wei allerdings herunterspielen, dass Tinder ähnlich funktioniert und die von ihm genannten Verhaltensinformationen auch in Formaten wie Instagram Stories vorhanden sind. Und dass schlicht jedes UX/UI-Design der datenverarbeitenden Industrie an Datenproduktion interessiert sein muss.

 

Swing and a Miss: "The Social Dilemma" Didn't Get It by an authoran author ([object Object])
Failing to address the root causes of technological toxicity, the video essay amounts to no more than a missed opportunity.

Michael O. Church, hier bereits häufiger erwähnt, nimmt sich in der ersten Edition seine Substack-Newsletters (den ich hiermit empfehle) die Netflix-Doku „The Social Dilemma“ vor. Genauer: dessen unterkomplexe Darstellung, wie in der Tech-Branche Entscheidungen fallen und was Verantwortung bedeutet.

„Silicon Valley is not a bastion of cosmic evil. It is not Mordor or R’lyeh. Technology executives, in general, do not set out to damage the world for damage’s own sake. What we have is not cosmic evil, but the banal kind. The whole system runs on metrics: daily active users, clicks per hour, ads served, time of use, viral growth, et cetera. Each worker is enslaved to the short-term fluctuations of indicators over which he has limited control, and is usually pushed to do unethical things by the need to keep the numbers in line. Even software engineers are promoted, demoted, or fired based on the number of tickets they close. Senior product managers live or die based on whether they can get users to spend five more seconds within walled gardens. At the lower levels, no one’s trying to foster addiction or radicalization— they’re just trying to survive.“

Dass für Michael Church das Problem im „Konzern-Kapitalismus“ liegt, gehört zu seiner bekannten Haltung. Und so ist das ganze Essay eine Abrechnung mit unserer Gegenwart.

AI ethics groups are repeating one of society’s classic mistakes by Abhishek Gupta und Victoria Heath ([object Object])
Too many councils and advisory boards still consist mostly of people based in Europe or the United States.

The newly formed Global AI Ethics Consortium, for example, has no founding members representing academic institutions or research centers from the Middle East, Africa, or Latin America.

(Hinter dem Hinweis verbirgt sich der Hinweis des Autorenduos, dass ihr Montreal AI Ethics Institute das anders macht).

Umweltbundesamt: Streaming weniger klimaschädlich als gedacht by Christopher Jähnert ([object Object])

Das „als gedacht“ ist irgendwie schräg: Die ganze Debatte zum „Klimakiller Streaming“ beruhte in Deutschland bekanntermaßen vor allem auf einer Untersuchung zur Youtube-Bildauflösung, die durch die relativ übliche Digitalskepsis zum allgemeinen Befund wurde. Aber die Realität ist nunmal komplizierter.

Eine Erkenntnis aus der Studie ist, dass Mobilfunk-Datenübertragung CO2-intensiver als Wlan ist. Der Zyniker in mir sagt: Das passt ja dann gut, dass hierzulande angesichts der Bandbreiten-Probleme nur die wenigsten Menschen mit großem Genuss längere Videos über das Mobilfunknetz streamen können.

Huawei’s Struggles in European Telecoms by Jan Stryjak

Huawei’s expulsion from all of Europe’s core networks seems to be a question of when, not if, and its European RAN business may be on the way out too. This will likely result in Europe playing catch-up in its 5G race with China and the US.

Ich bin mit solchen Prognosen vorsichtiger, aber ich muss anders als Jan Stryjak von Counterpoint Research auch keine steilen Thesen verkaufen. Immerhin hat sich für Open RAN (also eine modulare Architektur durch Trennung von Hardware und Software) eine Lücke aufgetan  – ganz entgegen dem Trend in Richtung proprietärer Komplettsysteme.

Covid-19 is spurring the digitisation of government by The EconomistThe Economist

Der Economist mit einem Rundblick auf die (meist fehlenden) Verwaltungsdigitalisierung und die Folgen während Covid-19. Ein Aspekt, wie bei vielen Corona-Themen: Die Krise hat nicht nur Fehlendes, sondern auch Schwachstellen offengelegt – zum Beispiel digitale Systeme, die für geringe Lasten konzipiert sind und bei größerer Nutzung zusammenbrechen.