homeportfolioabout

Meditations on Artificial Intelligence

⇠ Back to overview

Julia Geiser and I gave a short talk (in German) at IAMAI, in which we argued for AI as a companion species along the lines of Donna Haraway’s Cyborg Manifesto and other train of thoughts. In her latest book, Staying with Trouble, she makes the point that “It matters what stories we tell stories with”. So we tried to create stories, together with the participants, which allow for *different *relationships to and with AI.

In the second part of our input, we had a discussion in which participants drew cards with short meditations and we tried to reflect on these together.

Our thanks go to Andrew Paterson for the inspiration for this format and Stefanie Marlene Wenger for inviting us to speak.

Here is the talk in it’s entirety:

AI Blackboxing


Intro, über uns

Das wir heute hier sind, hat damit zu tun, dass Julia und ich seit vier Jahren ein kleines Festival organisieren, welches sich mit Hacking auseinandersetzt. Dabei interessiert uns vor allem Hacking als Kulturmethode und Design Strategie und wir haben eigentlich seit jeher das klassische Hacking am Computer aussen vor gelassen.

Der Begriff kommt ursprünglich von den Modelleisenbähnler. War eine Bezeichnung für eine besoders klevere und kreative Weichenstellung. Diese haben den Begriff mit an die ersten Grosssrechner getragen. Wir verstehen Hacking als kreative Design Strategie. Eine Methode um geschlossene Systeme zu öffnen und mit zu gestalten. Sprache erkennen und verstehen um schnittstellen zu erkennen wo in ein geschlossenes System eingedrungen werden kann um dieses nach seinen oder gesellschaftlichen bedürfnissen umzugestalten.

Wir durften dieses Jahr das Festival zum dritten Mal durchführen. Beim ersten hatten wir vor allem inhaltlich den Bogen weit aufgespannt um die Bandbreite aufzuzeigen — vom Cabaret Voltaire und Dada bis zu Hackteria und Biohacking. Wir wollten unsere Gäste entscheiden lassen, was Hacking sein kann und so war uns Partizipation schon immer auch ein Anliegen. In der zweiten Ausgabe haben wir uns vor allem den DIY Bastler_innen in Elektrotechnik und Biohacking gewidmet. Dieses Jahr haben wir uns das Thema Gender und Gender Hacking gewählt innerhalb deren wir die Anwendung von Hacking als subversive und selbst-ermächtigende Methode untersuchten.

Technik und ein Set an Fähigkeiten ist für uns nur ein Teil von Hacking. Wir vertreten die Meinung, dass Hacking in erster Linie eine Einstellung ist, eine Attitude oder vielleicht sogar eine Ontology. Vereinfacht könnte gesagt werden, dass es bei Hacking darum geht, die Welt nicht als statisch und gegeben zu verstehen in welche man sich einzufügen hat. Im Gegenteil geht es darum die Welt als ein dynamisches Potential zu verstehen welches wir mitgestalten können und sollen.

Als Stefanie auf uns zugekommen ist, hat sie sich dafür interessiert, wie Hacking und AI in Zusammenhang stehen und was für einen Zugang zur Thematik sich in Zukunft entwickeln wird. Wir haben uns darüber Gedanken gemacht warum Hacking in diesem Bereich überhaupt nötig sein könnte und haben uns in der Folge auch mit dem Begriff der Blackbox auseinandergesetzt.

Zu unserem Input heute ist zu sagen, dass wir beide keine Spezialisten im Sinne einer Professionalität sind. Wir programmieren weder auf einer täglichen Basis neurale Netzwerke noch sind wir AI Forscher oder Policy Makers. Wir möchten trotzdem versuchen, zusammen mit euch, uns Zugang zu Ai zu verschaffen. Und wenn wir das nicht auf einer technischen oder politischen Ebene machen können, dann machen wir das innerhalb unserer Denkräume. Lasst uns versuchen uns unsere eigenen Denkräume neu einzurichten, so dass wir uns dem Thema AI geeigneter annehmen könne.

Vorurteile

Ich würde gerne zuerst ein paar Vorurteile aus dem Weg räumen; Künstliche Intelligenz ist nicht intelligent. There — I said id. AI ist eine hoch spezialisierte Software und Software macht immer genau das, was wir ihr sagen. Wenn also eine Software einen Fehler hat, dann ist das, weil wir den Fehler da rein programmiert haben. Wenn eine Software voreingenommen, sexistisch oder rassistisch ist, dann weil wir diese so programmiert haben.

Niemand würde behaupten, dass Filmmaterial voreingenommen wäre. In den 1950er Jahren hat Kodak sogenannte Shirley Cards produziert, mit welchem die Fotodrucker kalibriert wurden. Auf diesen Karten waren Frauen abgebildet. Das Problem war, dass es immer Frauen mit heller Hautfarbe waren, was zu Folge hatte, dass Portraits von Menschen mit dunkler Hautfarbe nicht gut entwickelt wurden.

https://www.buzzfeed.com/syreetamcfadden/teaching-the-camera-to-see-my-skin

Wie weit die Technologie auch kommt, und wie sehr wir sie als oppositionär und losgelöst vom Menschen denken und verstehen, so ist sie dennoch immer vom Menschen gemacht und somit auch anfällig für unsere menschliche Unzulänglichkeit.

Heute haben wir das selbe Problem mit AI. AI lässt sich als ein Netzwerk aus Berechnungen vorstellen. Damit sich etwas berechnen lässt, müssen wir Menschen eine Eingabe machen, oder bestimmen wie die AI an die Eingabe kommt. Das ist ein höchst kuratorischer Akt bei welchem unsere Voreingenommenheit wieder ins Spiel kommt. Die Auswahl der Daten bestimmt, was die AI lernt und dasselbe gilt auch für die Auswertung der Daten.

Wir können nicht von Intelligenz sprechen, solange diese Software auf diese Art und Weise von unserer Eingabe abhängig ist. Das AIs uns in Go und Schach geschlagen hat, hat Wellen geworfen. Jedoch sind diese AI so hochspezifisch, dass die Schach AI nicht im Ansatz Go spielen könnte und umgekehrt.

Ein Hack hat in den letzten Wochen zu meiner Lieblings-Headline geführt hat:

“We also made a baseball that classifies as an espresso at every angle!” – http://www.labsix.org/physical-objects-that-fool-neural-nets/

Dabei geht es um eine bekannte AI von Google, welche in der Lage ist tausend Objekte in Fotos zu erkennen. Um das zu bewerkstelligen wurden der AI Millionen von Fotos gezeigt und gesagt, war worauf zu sehen ist. Die AI hat sich dann selbst erarbeitet woran es etwas erkennen kann. Nun ist es aber möglich Bilder oder auch Objekte herzustellen, die für unser Auge immer noch eine Schildkröte oder ein Baseball sind, jedoch leichte aesthetische Verschiebungen enthalten, welche die AI verwirren.

Dieser Hack sagt uns viel über die Art und Weise, wie die AI sich ein Verständnis der Welt erarbeitet hat. Diese Verständnis entzieht sich jedoch einer direkten Aneignung durch uns.

Und damit wären wir bei der Blackbox angekommen.

Blackbox

Das Schwarze an der Blackbox bezieht sich nicht wirklich auf eine Farbe, sondern eine der Box anhaftenden mystischen Aura.

Ein möglicher Ursprung des Begriffes könnte im zweiten Weltkrieg sein. Elektronische Neuerungen, wie spezielle Radare, wurden in Kisten an den Flugzeugen montiert und schwarz bemalt, damit sie keine Reflektionen werfen. Wenige Kisten sind durch Flugzeugabstürze der feindlichen Macht in die Hände gespielt worden. Diese konnten in der Regel nur vermuten, wozu die Maschinerie dienen soll.

Es hätte sich ja jeweils um eine Bombe handeln können. Daher wurden Methoden entwickelt, um herauszufinden wie diese Objekte funktionieren, oder wie man mit ihnen umgehen kann, ohne sie zu öffnen, oder genau zu verstehen wie ihr “inneres” funktioniert oder aussieht.

https://en.wikipedia.org/wiki/Flight_recorder#Terminology

Womit wir auch schon beim Kern der Sache sind. Eine Blackbox ist keine magisch verschlossene Truhe sondern ein Objekt oder eine Organisationseinheit, dessen Inhalt sich unserer direkten Erfassung entzieht. Wir können höchstens Annahmen über das innere System oder dessen Funktion machen, indem wir Eingaben tätigen und Ausgaben bekommen.

Blackboxing ist so tatsächlich auch als Begriff existent. Es gibt dabei zwei Ausrichtungen die sehr spannend sind. Bruno Latour sagte, dass Blackbox

“is the way scientific and technical work is made invisible by its own success. When a machine runs efficiently, when a matter of fact is settled, one need focus only on its inputs and outputs and not on its internal complexity. Thus, paradoxically, the more science and technology succeed, the more opaque and obscure they become.”

Ebenfalls wird der Begriff in der Actor-Network Theorie oder als Design Methode gebraucht um Komplexitäten zu vereinfachen. Dabei geht es dann darum, dass gewisse Subsysteme weggeschlossen werden können um sich dann auf andere Bereiche zu konzentrieren. In der Software Entwicklung wird dieses Konzept inflationär angewendet und nennt sich Objektorientierte Programmierung. Wenn ich Code schreibe, welchen ich weiter geben möchte, dann verpacke ich diesen und lasse die anderen Programmier nur die Ein- und Ausgänge zur Verpackung sehen. So müssen sich diese nicht mehr darum kümmern, was da drin passiert — solange es funktioniert…

Nun ist die Analogie von Objektorientierter Programmierung zu Blackbox nicht weit und der Begriff wird oft und gerne im Rahmen von AI verwendet. Eine Suche nach Blackbox und AI bringt zwischen 15 bis 23 Millionen Suchresultate auf Google und zumindest bei mir waren die Topresultate von MIT.com, nature.com und sciencemag.com.

Wir behaupten, dass die AI in diesem Kontext stellvertretend für unsere Ängste steht, da etwas geschaffen zu haben, was sich uns entzieht und uns im schlimmsten Falle unkontrolliert überflügeln und obsolet machen wird — und das war schon immer so — ganz im Sinne eines Frankensteinschen Monster.

Kathrin Passig hat dieser Tage einen Text zur Blackbox geschrieben in welchem sie aufzeigt, dass schon Norbert Wiener — Begründer der Kybernetik — vor 70 Jahre festgestellt hat, dass sich Software in ihrer Komplexität und Geschwindigkeit unserer mentalen Erfassung entzieht.

Wir wären dazu in der Lage, nachzuvollziehen was sich im innern einer Software abspielt. Jedoch würden wir unglaublich viel Zeit brauchen um alles wieder auseinander zu nehmen und zu kontrollieren, was da produziert wird. Die Konstante Zeit macht ja den Computer erst zu dem was er ist. Er kann etwas schneller berechnen als wir im Kopf oder auf dem Papier. Das alles von Hand wieder zu kontrollieren, so wie es früher im übrigen auch gemacht wurde, wäre dann im Sinne einer borgesianischen Karte sehr unsinnig — eine Karte die so genau so detailgetreu wie die Realität selbst ist. Dazu sind Karten, respektive AIs nicht da — sondern sie sind optimierte Abstraktionen und Modelle unserer mentalen Prozesse.

AI, genau so wie viele andere Software, ist erst im Begriff Infrastruktur zu werden. Sie entzieht sich unserem Verständnis und eröffnet gleichzeitig viel Raum für Spekulation aber auch Reflektion über den Menschen. Sie ist der Drache auf der Seekarte, der für das Unbekannte steht — auch in und um uns. Und das fürchtet uns. Es ist ja nicht nur Infrastruktur die ganz weit weg ist, wie die Cloud und die Unterseekabel und die Satelliten. Sondern AI ist uns ganz nah. AI ist in unseren Tasche und weiss Bescheid wann wir das letzte Mal auf dem Klo waren.

Man könnte fast sagen, AI ist das neuste Mitglied im Club der Companion Species.

AI als Companion Species

Donna Haraway sagt sehr schön in ihrem neusten Buch Staying with the Trouble: It matters what Stories we tell Stories with. Es spielt eine Rolle mit welchen Geschichten wir Geschichten erzählen. Vor 33 Jahren hat sie ihren Essay A Cyborg Manifesto geschrieben, in welchem sie versucht hat, die Grenzen zwischen Mensch und Maschine aufzulösen und durch den Begriff der Verwandtschaften neue Allianzen im Feminismus aufzubauen.

“From one perspective, a cyborg world is about the final imposition of a grid of control on the planet, about the final abstraction embodied in a Star Wars apocalypse waged in the name of defence, about the final appropriation of women’s bodies in a masculinist orgy of war. From another perspective, a cyborg world might be about lived social and bodily realities in which people are not afraid of their joint kinship with animals and machines, not afraid of permanently partial identities and contradictory standpoints.”

Die kritische Perspektive, AI als Gefahr zu sehen, wird dieser Tage zu genüge eingenommen. Was ist aber mit der anderen Perspektive, jener in welcher wir Menschen zusammen mit den Maschinen, mit den AIs in neue Identitäten schreiten?

Wie würden wir uns gegenüber AI verhalten wenn wir diese als eine Companion Species sehen würden — so wie Hunde, Kühe oder Gräser wie den Weizen. Etwas, was nicht uns ist aber ohne das wir nicht uns wären. Wie wäre es, wenn wir AI als inhärentes Potential von Software verstehen würden. Nicht etwas, dass wir geschaffen haben, sondern etwas, dass schon immer da war und wir gerade eben erst kennen lernen.

Lasst uns doch zusammen diesen Denkraum aufmachen. Lasst uns ein Zusammen-mit-AI, ein becoming-with, denken.

Frei nach Haraways neuem radikalen Claim: “Make kin, not babies.”

Meditations on AI

talk 2017-11-11
made with ♥
with archive.txt