Ausstellungsstände
- science2public – Gesellschaft für Wissenschaftskommunikation e.V.
- Ministerium für Infrastruktur und Digitales des Landes Sachsen-Anhalt
- Hochschulen des Landes Sachsen-Anhalt
- Partner*innen der Convention
10:00 – 11:00 ERÖFFNUNG IM FORUM
10:00 – 10:10 Eröffnung durch Ilka Bickmann, Vorsitzende science2public und Convention-Leitung und Natalie Sontopski, Programm-Kuratorin KI & Wir*
10:10 – 10:15 Grußworte von Prof. Dr. Armin Willingmann, Minister für Wissenschaft, Energie, Klimaschutz und Umwelt des Landes Sachsen-Anhalt sowie Dr. Lydia Hüskens, Ministerin für Infrastruktur und Digitales des Landes Sachsen-Anhalt
10:15 – 10:50 Keynote mit Eva Wolfangel: „Zum guten Leben mit KI bitte hier entlang!“ Mehr Infos
10:50 – 11:00 Impulsvortrag „Anwendbarkeit und Potenziale der datengetriebenen Verwaltung“ mit Staatssekretär Bernd Schlömer, Ministerium für Infrastruktur und Digitales des Landes Sachsen-Anhalt
11:00 – 15:00 HAUPTPROGRAMM
Speakerinnen: Hannah Lichtenthäler
Sexrobotik, Drohneneinsätze und Sprachassistent*innen – all das und Vieles mehr läuft unter den Schlagworten Künstliche Intelligenz (KI) und Algorithmen. Doch was genau umfassen KI und Algorithmen und wie vielfältig sind die Perspektiven auf diese tatsächlich? KI – eine Kehrtwende im Mensch-Maschine Verhältnis? Ein Mythos? Eine Utopie? Die Zukunftsszenarien schwanken zwischen Bedrohung und Verheißung. Klar ist: Technologie im Allgemeinen und algorithmische Prozesse im Speziellen sind nicht ohne Herrschafts- und Machtbezug denkbar. Gerade deshalb gilt es fortwährend, diese Systeme vor dem Hintergrund feministischer Sichtweisen und Wertvorstellungen kritisch zu betrachten, zu bewerten und neu zu entwickeln. Feministische Betrachtungsweisen und intersektionale Zugänge finden kaum bis keine Berücksichtigung, und so reproduzieren sich traditionell patriarchale Sichtweisen und verstärken sich durch den Einsatz von KI.
Die Publikation begleitet aktuelle Entwicklungen intersektional feministisch. Ziel ist es, angesichts sich verdichtender technischer und gesellschaftspolitischer Entwicklungen, neue Perspektiven auf Künstliche Intelligenz und Algorithmen zu entwickeln.
Moderation: Katharina Mosene
Speakerinnen: Dr. Nakeema Stefflbauer, Fiona Krakenbürger, Prof. Dr. Stephan Höyng
Diversität ist mehr als nur ein Synonym für Vielfalt. Vielmehr muss es darum gehen die Vielfältigkeit menschlicher Lebensentwürfe auszudrücken und im gesamten gesellschaftlichen Leben zu repräsentieren. Technologie und künstliche Intelligenz kann uns dabei behilflich sein. Doch dafür braucht es nicht nur diversitätsorientiertes Design, auch zivilgesellschaftliches Engagement muss in diese Prozesse mit einbezogen werden. Auf dem Panel wollen wir den Bogen von wirtschaftlichen Aspekten diversitätsorientierter KI über die Frage nach im Design angelegter Gerechtigkeit bis hin zu zivilgesellschaftlicher Förderung von emanzipativen gesellschaftspolitischen KI Projekten spannen, um mögliche Synergien zwischen den Bereichen auszuloten.
Speaker*innen: Arne Maibaum, Lisa Meinecke
Visualisierungen sind ein zentrales Element der Wissenschaftskommunikation. Betrachtet man aber die Visualisierung von KI, tauchen oft merkwürdige bis irreführende Bilder auf. Wenn es nicht Bilder des Science-Fiction-Killers „Terminator“ sind, wird KI oft durch – häufig weiße – Roboter dargestellt. In Pressemitteilungen oder populärwissenschaftlichen Berichten sind Roboter, die Kopfhörer tragen und Tastaturen nutzen oder unnötig und unerklärlich sexualisiert sind, ebenso omnipräsent wie blau leuchtende Gehirne. Solche Visualisierungen vermischen Realität und (Science-)Fiction und den aktuellen Stand der Technik mit dystopischem Horror oder utopischen Träumen.
Auch wenn solche Klischees häufig lächerlich sind, sind sie nicht harmlos. Bilder, die einen Text begleiten, lenken unsere Aufmerksamkeit und beeinflussen sowohl explizit als auch implizit, wie wir den Inhalt des Textes wahrnehmen. Dies trägt nur zur weit verbreiteten Unkenntnis darüber bei, was Robotik, KI und verwandte Technologien tatsächlich (nicht) sind und (nicht) können.
Im Dialog mit dem Publikum und mit Hilfe vieler schrecklicher Bilder wollen wir aufzeigen, welche Muster es in der Visualisierung von KI gibt und warum sie zu kritisieren sind. Wir wollen ein Bewusstsein dafür schaffen, dass die derzeitige Visualisierungspraxis nicht nur irreführend, sondern oft auch problematisch ist – und dabei über die schlimmsten Bilder lachen.
Speaker*innen: Miriam Fahimi, Phillip Lücking
Digitalisierung und künstliche Intelligenz ist in Mode und wird oft als Lösung für allerlei gesellschaftliche Probleme vermarktet. Häufig wird KI mit mathematischer Präzision und der Berechnung objektiver, optimierter und individuell zugeschnittener Aussagen assoziiert. So stehen Algorithmen hinter Übersetzungsprogrammen, automatisierter Sprach-, Text- und -Bilderkennung, Navigationssystemen, Vorschlägen für interessante Musik, neueste Filme und beste Produkte, sowie hinter dem, was uns bei einer Suche im Internet oder auf Social-Media-Kanälen angezeigt wird.
Die Liste ist lang, die Verheißungen sind groß – aber was ist dran an den zauberhaft anmutenden Versprechungen? Nicht viel, wenn man auf die immer lauter werdenden kritischen Stimmen sowohl aus der Technik, der Wissenschaft als auch der Zivilgesellschaft hört: KI sei kein Allheilmittel und nicht die Lösung unserer Probleme – im Gegenteil soll die Art, wie KI verstanden und angewandt wird, gesellschaftliche Machtverhältnisse und Ungleichheiten verfestigen. In unserem Panel wollen wir KI entzaubern, indem wir einen kritischen Blick auf KI werfen, den Zusammenhang zwischen KI und Diskriminierung diskutieren und gemeinsam überlegen, wie sich ein holistisches und kritisches Verständnis von KI gesellschaftlich verbreiten lässt.
Speaker*innen: Ludwig Reicherstorfer, Annika Runge
Vorgestellt werden Themen, Feedback und Fragen, die in der Bevölkerung hinsichtlich Künstlicher Intelligenz immer wieder auftauchen. Am Beispiel der „Bezirkstour“, einem von der Senatsverwaltung Berlin geförderten Projekt, das 2020 durchgeführt wurde, zeigen wir, wie man einen nötigen Stakeholderdialog organisiert.
Speakerin: Jaana Müller-Brehm
Der Talk geht der Frage auf den Grund, warum es sinnvoll ist, KI-Technologien ethisch zu reflektieren. Um sich Antworten zu nähern, zeigt die Speakerin am Beispiel Medien und Öffentlichkeit im digitalen Wandel auf, wie KI-Technologien in unserem Alltag wirken und welche Gestaltungsspielräume hier bestehen. Sie arbeitet heraus, inwiefern dahinter ethische Fragestellungen stecken wie beispielsweise: Was macht einen konstruktiven und vielfältigen öffentlichen Diskurs aus? Sie stellt dar, wie KI-Systeme Vielfalt beschränken oder fördern können und konzentriert sich dabei auf die Rolle der Menschen bei der Entwicklung und dem Einsatz von KI-Technologien.
Speaker: Michael Puntschuh
Algorithmische Systeme werden in immer mehr Bereichen angewendet und mit ihrer Hilfe werden Entscheidungen getroffen, die erhebliche Auswirkungen auf unser Leben haben. Sie bringen ebenso Chancen wie Risiken mit sich. Es liegt in unserer Hand, gemeinsam dafür zu sorgen, dass algorithmische Systeme zum Wohle der Gesellschaft gestaltet werden. Die in den Menschenrechten abgebildeten individuellen und kollektiven Freiheiten und Rechte sollen durch algorithmische Systeme gestärkt, nicht eingeschränkt werden. Regulierungen zum Schutz dieser Normen müssen durchsetzbar bleiben. Um das zu erreichen, wurden die Algo.Rules entwickelt. In ihnen sind Regeln für die Gestaltung algorithmischer Systeme festgeschrieben.
Speaker*innen: Kristina Sinn, Aaron Israel, Gruppe Stumpf
ArtPilot entwickelt autonome Gefährte, mit denen sich Kunstinteressierte durch Kunstinstitutionen fahren lassen können, während sie mit Kommentaren beschallt werden, die mittels Künstliche Intelligenz (KI) erzeugt werden. Diese Intervention soll neue Perspektiven auf die Kunst eröffnen und das Spannungsfeld zwischen nützlichen Fakten, überraschenden Assoziationen oder Beobachtungen, überladene Worthülsen und dadaistischer Lautmalerei ausloten.
Damit birgt das Projekt Anknüpfungspunkte an das Theorie- und Praxisfeld der kritischen Kunstvermittlung und greift einen Ansatz der kritisch-reflexiven Kunstvermittlung auf, der sich selbst als widerständig handelnd begreift: Wer bestimmt eigentlich, was in Ausstellungen zur Sprache kommt und wer ist in den Institutionen für die Produktion von Sprache verantwortlich? Was wird gesagt, darf gesagt werden, kann gesagt werden? Wer ist in den Institutionen für die Produktion von Sprache verantwortlich? Wie kritisch kann/darf/soll sie sein? Was passiert, wenn eine Künstliche Intelligenz (KI) eine kommentierende Funktion in Bezug auf Kunstwerke übernimmt?
Um die Kommentare zu den Werken der Ausstellung zu erzeugen, setzen wir auf den tagesaktuellen Stand der Technik auf dem Gebiet der Künstlichen Neuronalen Netze (KNN) zur Text- und Sprachsynthese.
ArtPilot ist im Rahmen des Programms »LINK – Künstliche Intelligenz in Kunst und Kultur« entstanden.
Speakerin: Nina Hentschel
Speaker: Franz Köferl
Das Projekt beschäftigt sich mit der optischen Besucherverfolgung während eines Museumsbesuchs. Das System verfolgt die Position der Besucher auf der Museumsetage, soll aber auch auf persönliche Parameter wie Größe, Gewicht, Alter sowie Emotionen schließen. Vor allem die Einschätzung von Emotionen ist aufschlussreich, um zu verstehen wie ein Exponat vom Besucher aufgenommen wird und wie der Besucher das Museum insgesamt empfindet. Die Entwicklung eines solchen Systems unter Beachtung der europäischen Datenschutzgrundverordnung (DSGVO) bringt zusätzliche Herausforderungen mit sich.
Speakerin: Dr. Tabea Golgath
Speakerinnen: Marcella Lagalante, Magdalena Roß, Tina Siehoff
Wie lässt sich das Thema Künstliche Intelligenz sinnlich erfahrbar, interaktiv, informativ und dazu möglichst niedrigschwellig ausstellen? Dieser herausfordernden Frage stellte sich das Wechselausstellungsteam der DASA Arbeitswelt Ausstellung in den letzten beiden Jahren in einem
intensiven Konzeptions- und Gestaltungsprozess. Die Ausstellungsmacher*innen Marcella Lagalante, Magdalena Roß und Tina Siehoff blicken in diesem Talk gemeinsam auf den Schaffungsprozess zurück. Sie sprechen darüber, wie sie sich in die (Un-)Tiefen des Rabbitholes zum Thema Künstliche Intelligenz begaben, sich treiben ließen, Irrungen und Wirrungen unterlagen und schließlich wieder auftauchten, um den Besucher*innen von ihren Erfahrungen und Erkenntnissen in Form einer Ausstellung zu erzählen.
Die Ausstellung „Künstliche Intelligenz. Eine Ausstellung über Menschen, Daten und Kontrolle“ ist ab dem 13. November 2021 in der DASA Arbeitswelt Ausstellung in Dortmund zu sehen.
Speaker*innen: Dominik Renneke, Natalie Sontopski
Welche Gemeinsamkeiten haben Coden und Schreiben? Wenn die Programmiersprache eine erlernbare Fremdsprache ist, ist dann der Text auch literarisch?
Ausgehend von zeitlichen und räumlichen Überschneidungen der Dichterin Annette von Droste-Hülshoff und der Mathematikern und Vordenkerin künstlicher Intelligenzen Ada Lovelace, initiierte Burg Hülshoff – Center for Literature das Projekt Code Girls. Hier haben junge Menschen literarische Chatbots geschrieben und programmiert. Sie haben sich dem Programmieren und dem Schreiben in verschiedenen Workshops genähert und dabei nebenbei zwei Bereiche verbunden, die auf den ersten Blick nicht zusammen gehören.
Welche Potenziale bieten Digitalität, Coding und die Verbindung von Literatur und anderen Disziplinen für junge Schreibende? Welche Möglichkeitsräume öffnen sich, wenn wir Programmieren als Sprache und Text begreifen, der ebenso literarisch sein kann wie ein Gedicht von Droste-Hülshoff.
– ENTFÄLLT –
Moderation: Pauline Junginger
Wofür steht eigentlich das ‚I‘ in KI? Was meinen wir genau, wenn wir von ‚intelligenten‘ Systemen sprechen? Mit der Formulierung des Turing-Tests legte Alan Turing 1950 einen theoretischen Grundstein für die Beantwortung dieser Fragen. Turing formulierte die These: Können die Antworten eines Computers nicht von denen eines Menschen unterschieden werden, ist der Computer intelligent. Für Turing war also die sprachliche Intelligenz eines einzelnen Menschen der Maßstab, an dem sich ein Computer zu messen hatte. Ende der 1980er Jahre entwarf Susan Leigh Star eine Alternative: den Durkheim Test. Der Durkheim Test definiert Intelligenz als das Ergebnis eines Aushandlungsprozesses zwischen denjenigen Akteur*innen, die ein bestimmtes System verwenden. Ein System ist dann intelligent, wenn es die Bedürfnisse seiner Anwender*innen erfüllt und flexibel an Veränderungen angepasst werden kann.
Wie würde die KI-Forschung heute aussehen, wenn der Durkheim-Test ihre Entstehung begleitet hätte? Welche Konsequenzen hätte er für die Entwicklung von KI? Oder hat der Turing-Test ohnehin nur einen anekdotischen Wert und ist für die konkrete praktische Forschung zu Künstlicher Intelligenz irrelevant?
Im Rahmen einer Close-Reading-Session beschäftigen wir uns mit den Vorstellungen von Intelligenz, die dem Turing- bzw. dem Durkheim-Test zugrundeliegen und vergleichen sie miteinander. In Kleingruppen lesen wir zunächst Ausschnitte der Originaltexte (auf Englisch). Anschließend kommen wir im Plenum zusammen und arbeiten die Gemeinsamkeiten und Unterschiede der beiden Tests heraus. Zum Abschluss diskutieren wir die Frage, wie ein Test für KI eurer Meinung nach aussehen sollte.
Kein Vorwissen erforderlich. Freude am Lesen und Diskutieren von (englischsprachigen) Texten ist erwünscht.
Moderation: Carolin Henze
Speaker*innen: Dr. Amrei Bahr, Dr.-Ing. Axel Zentner, Christoph Kugler
Das Panel bringt Expert*innen verschiedener Disziplinen zum Thema Recycling zusammen. Wie kann Künstliche Intelligenz zu besseren Recycling-Prozessen beitragen? Und wie sinnvoll ist Recycling generell?
Moderation: Julia Meisner
Beim KI-Camp des Bundesministeriums für Bildung und Forschung (BMBF) und der Gesellschaft für Informatik e.V. (GI) treffen junge KI-Talente und renommierte KI-Expert*innen aus der ganzen Welt aufeinander. Als Gast bei der KI & Wir* Convention thematisiert das KI-Camp wie gewohnt transdisziplinäre Zukunftsfragen aus verschiedenen Themenfeldern der KI- Forschung.
Vortrag 1: A Matter of Perspective – AI as an Understandable and Malleable Technology (in English)
Speakerin: Tamara Gupper
The term “Artificial Intelligence“ is connected with a multitude of utopian and dystopian imaginaries found both in fiction, as well as scientific and societal discourses. One common feature of these imaginaries is that AI is portrayed as an autonomous entity, largely independent of humans. I argue that this omission of humans, particularly of those involved in the technology’s development, contributes to the mystification of AI and therefore hinders a more informed societal debate on the topic.
In my PhD project, I conduct ethnographic research on the processes through which computer scientists program humanoid robots. As a cultural anthropologist, my focus lies on understanding the perspective of the computer scientists towards their own work and the technologies they develop. In this presentation, I will argue that learning to adopt this perspective, which sees AI as understandable and malleable, provides a positive contribution to the current debate on these technologies.
Vortrag 2: AI and Philosophy of AI (in English)
Speaker: Dr. Dimitri Coelho Mollo
In public discussion, when people talk about the relevance of philosophy to AI they very often mean mostly, or even only, ethics. Ethics is certainly very important to AI, but relevant philosophical contributions to the field do not stop there. There are other areas of philosophy that have interacted closely with AI research throughout its history, helping shape its assumptions, aims, and methods. We can group them together under the name ‘Philosophy of AI’.
In this talk, I will discuss some of the questions and proposals put forward by philosophers of AI in the past and today, showing how deep philosophical assumptions linger, sometimes unnoticed, at the basis of many approaches to artificial intelligence. Similarly, philosophical ideas can help shape the AI of the future, suggesting new perspectives and indicating new paths of research, which can help us better understand, and better build, artificial intelligent systems.
Vortrag 3: SOUND OBSESSED – What does transdisciplinary art mean from the perspective of being sound obsessed? (in English)
Speakerin: Portrait XO
Portrait XO dives deeper into what it means to be sound obsessed at the intersection of art, science, and technology. Starting as a musician, she took her musical obsession and connected dots into other fields that have created new methods, approaches, and inspirational ways to create. The relationship between humans and machines (everything from the way we engage with our smartphones, computers, to synthesizers), there is an ingredient that glues the invisible threads between them together. This invisible glue is what she often refers to as sonic engagement and communication. Throughout her journey, she’s met a handful of other fascinating musicians intersecting multiple fields that’s led to the launch of hybrid arts community community: SOUND OBSESSED.
„Each tool we decide to use helps us communicate in ways that are specific to that tool. In the era of artificial creativity, we are constantly creating new combinations of tools in interesting new ways. It makes sense that the way we approach computational creativity is holistic and naturally gives birth to new methods.“ Portrait XO
Das Anwendungsspektrum von Verfahren der Künstlichen Intelligenz (KI) ist nahezu unbegrenzt. Es werden neue intelligente und innovative Anwendungen ermöglicht, die nur mit KI-Algorithmen möglich sind. Mindestens genauso interessant ist aber der Einsatz der KI zur Verbesserung und Optimierung bestehender Prozesse, Projekte, Produkte und Geschäftsmodelle. KI-Anwendungen eröffnen dem Mittelstand ein breites Spektrum an Chancen! Doch wie können konkrete Anwendungsszenarien aussehen?
Mit dem KI-Trainer*innen-Programm unterstützen die Mittelstand 4.0-Kompetenzzentren kleine und mittlere Unternehmen dabei, Anwendungsmöglichkeiten von KI zu finden und zu erproben.
Themenschwerpunkt: Bildverarbeitung & -erkennung – Bilddaten & Deep Learning mit Anwendungsbeispiel
Beim Online-Shopping gestaltet sich die Suche und Darstellung von Produkten in vielen Produktportalen ähnlich: Per Texteingabe und über persistente Kategorien werden Artikel gefunden und den Kund*innen in aufgelisteter Form präsentiert. Eine Beziehung zwischen einzelnen Produkten wird nicht veranschaulicht. Jedoch ist deren visuelle Gruppierung nach „Ähnlichkeit“ hilfreich, wenn die Kundschaft in einer Produktpalette stöbern möchte. Genau hier setzten wir an und zeigen neue Suchmuster auf.
Themenschwerpunkt: Instandhaltung in der Prozessindustrie – Wartung nach Bedarf mit Anwendungsbeispiel
Eine vorausschauende Instandhaltung von Anlagenkomponenten (z.B. Pumpen, Gebläse, Wärmeübertrager, etc.) in der Industrie 4.0 basiert auf der Kenntnis des aktuellen und der Prognose des künftig zu erwartenden-technischen Zustandes einer Anlage. Dafür müssen große Mengen verfügbarer und oft ungenutzter Sensordaten mit geeigneten Methoden des Maschinellen Lernens analysiert und bewertet werden. Nicht nur um die schleichenden Veränderungen zielgerichtet identifizieren zu können, sondern auch zur Ableitung von konkreten Handlungsempfehlungen für Instandhaltungsmaßnahmen. Im Vortrag zeigen die KI-Trainer, welche Herausforderungen bei der Anwendung von Maschinellem Lernen im Instandhaltungsumfeld auftreten und erklären die Vorgehensweise, von Idee bis zur KI-Implementierung, an einem realen Beispiel.
KI in der Praxis: KI als Bestandteil von technischen Assistenzsystemen zur Sicherheitsvorkehrung in der Logistik (Polarith GmbH Magdeburg)
In der Prozessindustrie spielt eine hohe Betriebssicherheit eine übergeordnete Rolle. Personenunfälle in der Nähe von oder an Maschinen, wie z. B. einem Brückenkran, werden bislang durch Unfallverhütungsvorschriften und Gefahrentraining reduziert. Der Einsatz von KI stellt hier einen weiteren Ansatz dar, um mehr Sicherheit zu gewährleisten. In einem Impulsvortrag berichten wir von der laufenden Umsetzung eines KI-basierten Kollisionsschutzes von Arbeitskräften am Fahrweg eines Brückenkrans in einer Lagerhalle. Anhand eines Datensatzes von Farb- und Tiefenbildern einer Kamera mit LiDAR-Unterstützung wird ein Künstliches Neuronales Netz trainiert, das Personen im Sichtfeld detektiert. Eine Basis für die Smart Factory der Zukunft wird erschaffen, die den Personenschutz automatisiert.
In diesem Mini-Workshop werden intelligente Lautsprecher am Arbeitsplatz vorgestellt. Anschließend basteln wir selbst ein kleines Modell mit Hilfe eines interaktiven Digitalnotizbuches mit Python-Code und Audiodaten (ESC-50 Datensatz). Gelingt es, die Anwendung „Smart Speaker“ zu entmystifizieren?
KI-Demonstrator 1: „Unter die Haut schauen“
Bei der Unterscheidung und Klassifizierung von Stoffen und Materialien kann sich der Mensch oft nicht nur auf sein Auge verlassen. Gerade bei Produktfälschungen oder Qualitätsmängeln ist ein objektives Messverfahren und eine automatische Klassifikation notwendig. Das wird an lackierten Autoteilen, einmal mit der Originalfarbe und einmal mit einer Farbe eines anderen Herstellenden mit dem gleichen RAL-Farbwert, demonstriert. Das zweite Teil könnte eine Produktfälschung, ein verschwiegener Reparaturversuch oder ein Qualitätsmangel sein. Mit dem Auge sind die Teile nicht oder nur von Expert*innen unterscheidbar.
Der KI-Demonstrator „Unter die Haut schauen“ zeigt, wie mithilfe von Spektralinformationen aussagekräftige Daten gewonnen werden können. Mit diesen Beispieldaten wird eine KI zunächst trainiert und dann anwendet.
KI-Demonstrator 2: KI EscapeROOM
Speaker: Dr. Heiko Matheis
Die Welt im Jahr 2083. Das Wetter spielt verrückt und muss mithilfe von Satelliten gesteuert werden. Die Steuerungszentrale für die Satelliten befindet sich im EscapeROOM. Das Team muss gegen die Zeit sechs Fälle lösen, dafür kommen verschiedene Methoden der Künstlichen Intelligenz zum Einsatz. Alles im Raum oder auf dem Bildschirm kann ein Lösungshinweis sein, aber was führt in die falsche Richtung und was hilft weiter? Mit Knobeln, Ableiten und Ausprobieren und einer Prise Stressresistenz können die kniffligen Aufgaben gelöst werden. Nebenbei lernen die Teilnehmer etwas über ein künstliches neuronales Netz, das automatische Erkennen von Abweichungen (Anomalie-Detektion), die Aktivitätserkennung durch ein Sensornetzwerk, das Maschinelle Sehen bzw. die automatische Bildverarbeitung. Ebenso kommen Maschinelles Lernen sowie die Nearest Neighbour-Klassifikation zum Einsatz.
Speakerinnen: Miriam Klöpper, Sonja Köhne
Tschüss Vorgesetzte*r, hallo KI? So manche Anbieter*innen KI-basierter Lösungen für die Personalführung suggerieren in ihrer Werbung, mit ihnen lasse sich Selbst- und Fremdführung von Beschäftigten in wenigen Schritten optimieren. Die Anwendungen erfassen und analysieren Verhaltensdaten der Belegschaft, kombinieren sie mit Geschäftsdaten und bieten Beschäftigten selbst und Vorgesetzten Einblicke in Arbeitsabläufe, Leistung und Potenzial. Die Einführung solcher Anwendung ist daher häufig mit hohen Erwartungen verbunden.
Doch was ist dran an den Versprechen? In der Session “KI entzaubern: Kann KI menschliches Verhalten präzise vorhersagen und optimieren?” räumen Sonja Köhne vom Alexander von Humboldt Institut für Internet und Gesellschaft und Miriam Klöpper vom FZI Forschungszentrum Informatik mit Mythen rund um den Einsatz von KI in der Personalführung auf. Die beiden Referent*innen führen mit einem Kurzvideo in das Thema ein und stehen im anschließenden virtuellen Panel Rede und Antwort.
Moderation: Stefan Göllner
Speakerinnen: Katharina Schüller, Anne Mollen
Eine Diskussion zur Frage, ob „KI-Kompetenzen“ allgemeingültig definiert werden können (oder sollten) und wie sich der Bedarf nach der KI-Kompetenzentwicklung für den Einzelnen – sei es professioneller Anwender oder Laie – heute darstellt.
Moderation: Sophie Plötz
Speakerinnen: Elisabeth Sassi, Berivan Köroğlu, Tobias Jakubowitz
Vorstellung von Lernangeboten zu KI & Daten für (angehende) Lehrer*innen und Impulse für die Vermittlung von KI- und Datenthemen in der Schule
Moeration: Cordula Torner
Speakerin: Katharina Bata, Niklas Wais, Dr. Dennis Redeker
Wie kann man als Nicht-Informatiker*in KI als Studieninhalt in die Lehre aufnehmen? Hochschullehrende aus den Bereichen Maschinenbau, Politik- und Rechtswissenschaften berichten von ihren Erfahrungen und Erkenntnissen im Rahmen der KI-Campus Fellowships.
Speaker: Dr. Andreas Matt
Interaktiver Workshop zur spielerischen Erforschung von KI-Kernthemen mit den „Explorable Explanations“
Latent Riot ist eine Reihe künstlicher Protestzeichen, die von einem generativen neuronalen Netzwerk erzeugt werden. Als Grundlage dienten 6.000 Protestschilder und -plakate des Boston Women’s March 2017. Die meist handgeschriebenen Botschaften sind witzig, wütend, humorvoll. Einige Demonstranten fügten Zeichnungen oder Collagen hinzu, um ihre Botschaft zu veranschaulichen.
Nachdem ein StyleGAN mit diesem Datensatz trainiert wurde, haben wir ihn zur Erstellung neuer Bilder verwendet. Generative neuronale Netzmodelle wie StyleGANs können sehr gut die visuellen Eigenschaften eines Trainingsdatensatzes erfassen. Wie alle Machine-Learning-Modelle versteht das Diskriminatornetzwerk eines GAN jedoch nicht, was es sieht: Der Text auf den Protestschildern wird Pixel für Pixel hinsichtlich seiner visuellen Merkmale – Konturen und Kurven – und nicht als Worte mit Bedeutungen analysiert, die sich auf die Welt um uns herum beziehen. Die Botschaften auf den Protestschildern sind Beispiele für eine äußerst prägnante, aber spielerische Sprache, voller Bezüge, Ironie und Wortspiele. Kein aktuelles KI-System ist derzeit in der Lage, diese Bezüge zur realen Welt herzustellen.
Im öffentlichen Diskurs über Künstliche Intelligenz ist das Narrativ einer nach eigenen Wünschen und Absichten handelnden KI ein verbreiteter Mythos. Latent Riot ist ein künstlerischer Beitrag zum Diskurs über die vermeintliche Agenda der Künstlichen Intelligenz und ob wir Robotern Rechte zuweisen sollten, sowie eine Reflexion über Dataset Curation.
Künstlerinnen: Amelie Goldfuß und Alexa Steinbrück
Eine Radio-Moderatorin nutzt ein individuelles Sprachsynthese- und Sprech-Erkennungstool, um ihre persönliche KI-Stimme zu entwickeln. Als sie das Spiel ins Laufen bringt, meint sie Freiheit zu gewinnen. SIREN, Maries künstliche Stimme, verbindet sich mit allen möglichen lebenden und toten Geistern im Netz, unter anderem mit Hannah Arendt, deren Äußerungen und Ideen verfügbar geblieben sind. SIREN stellt ihr Fragen, die unsere Gegenwart betreffen. Christine Nagels Hörspiel thematisiert, was die Digitalisierung mit der menschlichen Stimme machen kann – und das, was (möglicherweise) nicht gelingt. Dies betrifft zum Beispiel ethische, rechtliche und Fragen der Firmenphilosophie der Anbieter und Programmierer von Sprachtools.
Die KI-Stimme SIREN wurde für diese Hörspiel-Produktion programmiert. Damit befragt Christine Nagel spielerisch die technischen Entwicklungen unserer Gegenwart mit den dem Hörspiel eigenen Mitteln und stellt akute, gesellschaftspolitische Fragen. Die Programmierung erfolgte in Zusammenarbeit mit dem Institut für Informations- und Kommunikationstechnik, Universität Magdeburg, Prof. Dr.-Ing. Ingo Siegert, und mit Joscha Bach, Kognitionswissenschaftler & KI-Forscher in San Francisco. Die Schauspielerin Paulina Bittner, deren Stimme zugrunde liegt, wurde im Studio immer wieder mit einem neuen Programmierstadium konfrontiert und reagierte im Dialog darauf. Dieser halb-dokumentarische Ansatz macht das Hörspiel zu einem Experiment: Ob und in welche Richtung sich die künstliche Intelligenz im Verlauf der Programmierung entwickeln würde, war bei Beginn der Aufnahmen nicht vorhersehbar.
Musik eröffnet einen emotionalen Zugang zu Technologie. Wir haben in diesem Projekt Menschen eingeladen, sich mit den Potentialen von künstlicher Intelligenz für unsere Gesellschaft auf eine ganz andere Art zu beschäftigen und damit auch andere Gruppen in der Gesamtgesellschaft zu erreichen. Die Musik wird nicht nur auf Basis von Nutzerinput durch KI-Algorithmen erzeugt, sondern auch von Mini-Robotern auf echten Instrumenten gespielt.
Künstler*innen: Prof. Dr. Doris Aschenbrenner, Bruno Kramm
Als vermeintlich objektive Spitzentechnologie besteht die Hoffnung, dass KI menschliche Schwächen überwinden kann. Manche Menschen glauben, dass KI frei von menschlichen Voreingenommenheiten und Fehlern sei und auf Grundlage fairer und objektiver Entscheidungen so der Diskriminierung einen Riegel vorschieben könne.
Wir entmystifizieren diese Behauptung, indem wir uns konkrete Beispiele dafür ansehen, wie KI Ungleichheiten (re)produziert, und verbinden diese mit verschiedenen Aspekten, die helfen, soziotechnische Verstrickungen zu veranschaulichen.
People-Analytics-Tools erfassen und analysieren die Verhaltensdaten von Mitarbeiter*innen, kombinieren sie mit Geschäftsdaten und bieten Führungskräften Einblicke in Arbeitsabläufe, Leistung und Potenzial. Auf dieser Basis verspricht People Analytics, mitarbeiterbezogene Entscheidungen zu objektivieren und zu optimieren. Manager*innen stellen daher hohe Erwartungen an diese Tools, insbesondere angesichts der wachsenden Zahl von Mitarbeitenden, die von zu Hause aus arbeiten und sich außerhalb ihrer räumlichen Kontrolle bewegen.
Doch kann die aktuelle Generation Künstlicher Intelligenz tatsächlich menschliche Manager*innen ersetzen?
Christoph is a voice assistant that can grow in reality. Whenever we communicate with her/him, her/his body will inflate and expand, touching our bodies. The story is based on real-life experiences: Yang, as a new intern, moved into a capsule hotel in Shanghai and took Christoph with him. Each capsule can accommodate only one person and he was willing to share this space with Christoph. This project tries to offer a new body and context to the voice assistant, trying to discuss the themes of intimacy, distance, and companion- ship in the space.
Artist: Yang Ni (Burg Giebichenstein Kunsthochschule Halle)
The project “response” makes use of the metaphor of the “wood wide web” – fungi span huge underground networks that also connect with plant roots and thus enable exchange between and with them. “response” creates a scenario in which a fruiting body becomes the hardware and the mycelial network the data network of a voice assistance system. This network is growing in solidarity in the interests of many. When interacting with people, the mycelium does not respond directly to commands, but in the form of impulses and reactions. There is no ego, no task-fulfilling assistance, only the active we.
Artists: Lara Kuom & Sasha Becker (Hochschule Merseburg), Lena Eichhorn (Burg Giebichenstein Kunsthochschule Halle)
The film project “2021: Stereolith” shows the mission of an extraterrestrial technology on planet Earth. Its destiny: to promote intelligent life and enable a transformation of humanity into an advanced stage of evolution. The monolithic something describes itself as a technical marvel, tries to engage people of different ages in conversation and incite them to progressive action. Unfortunately, the messages are not decoded to a satisfactory degree, but rather grotesquely. The extrinsic intelligence is treated like an object. Mankind and its ego are unwilling to submit to the missionary habitus. A collision occurs between mankind and technological progress, which raises the questions: How does humanity deal with “progress” and who benefits from it? Is progress always “good” and can it further deliver what it promises? An epic drama full of adventure and exploration.
Artists: Joris Grahl & Konrad Kosse (Hochschule Merseburg)
– ENTFÄLLT –
Kann eine KI kreativ sein? Gestaltet mit. GauGAN ist ein Deep-Learning-Modell aus der NVIDIA-Forschungsabteilung. Es verwandelt grobe »Kritzeleien« in fotorealistische Kunstwerke. Getauft wurde das Deep-Learning-Modell »GauGAN«, eine Hommage an den französischen Postimpressionisten Paul Gauguin, der Mitbegründer des Synthetismus war. Unser Angebot bietet Besucher*innen einen Einblick in KI-basierte Bildmanipulation. Dabei entstehen aus Ihren einfachen Zeichnungen, Linien und Flächen am Computer gemalte Landschaften, die vor Ort für Sie als Erinnerung ausgedruckt werden. Spaß, Gestaltung, Erkennen und verstehen, was mit KI in Sachen Kunst-KI-Komposition geht.
Mit einem Zeithorizont von bis zu 15 Jahren ist der Foresight-Prozess ein strategisches Instrument zur langfristigen Vorausschau. Foresight deckt Trends und gesellschaftliche Herausforderungen auf, ist „Frühwarnsystem“ und auch Ideenpool für zukünftige Projekte und Forschungsprozesse. Eine Zukunft ohne Technologien und künstliche Intelligenz ist für die meisten Wissenschaftler*innen auf dem Gebiet undenkbar. Doch was bringen die weitere Entwicklung von Informations- und Kommunikationstechnologie, von Robotik, Photonik, Materialwissenschaft und Werkstofftechnik für die Welt von morgen? Futuristische Szenarien sollen hierfür in Filmen dargestellt werden und zum Nachdenken und Diskutieren anregen.
Studierendenprojekt MLU: Bevölkerungsumfrage (Nähe Stand MLU)
Studierendenprojekt MLU: Bevölkerungsumfrage (Nähe Stand MLU)
Infostände für Hochschulen
Infostände Co-Hosts:
_Gesellschaft für Informatik
_Mittelstand 4.0.- Kompetetenzzentrum Magdeburg
Infostände Partner:
_AI & Society Lab“
15:00 – 15:30 ABSCHLUSS UND GET-TOGETHER IM FORUM
10:00 – 10:25 ERÖFFNUNG IM FORUM
10:00-10:05 Eröffnung durch Ilka Bickmann, Vorsitzende science2public und Convention-Leitung und Natalie Sontopski, Programm-Kuratorin KI & Wir*
10:05-10:30 Auftakt und inhaltliche Einführung durch Moderatorin Johanna Daher: „Empowerment: Deshalb solltest du dich persönlich mit KI beschäftigen“
10:30 – 15:00 HAUPTPROGRAMM
– ENTFÄLLT –
Mensch oder Maschine – we hat’s geschrieben? Die Schülerinnen und Schüler präsentieren auf der Slam-Bühne Gedichte, die teils von KI generiert, teils von Menschen erdacht wurden – doch welcher Text stammt von wem? Das Publikum stimmt ab.
Speaker*innen: Dr. Wibke Hachmann, Dr. Matthias Zaft
Wissen ist individuell und dynamisch. Wie sieht Dein Wissen aus? Und was hat das mit KI zu tun?
In diesem Workshop kann man Darstellungen seines eigenen Wissens begegnen, die Netzwerken oder Mind Maps ähneln. Dazu werden in einem automatischen, computerlinguistischen Verfahren Wissenseinheiten (Propositionen) aus Text extrahiert (durch die Software T-MITOCAR, Pirnay-Dummer, 2010) und in Graphen dargestellt. Um eine Darstellung des eigenen Wissens zu erstellen, benötigen wir jeweils einen selbst geschriebenen Text von mindestens 350 Wörtern. Zusätzlich können auch Lieblingstexte oder solche, auf deren Wissensorganisation man neugierig ist, mitgebracht werden. Im Workshop wird ein kurzer Hintergrund gegeben, dann der jeweilige Text eigenständig durch die Software analysiert und die Ergebnisse in Kleingruppen besprochen. Im Vordergrund steht das Erlebnis der Begegnung mit Wissen in einer ganz neuen Darstellungsform. Genauso wichtig wie die Diskussion dieser Technologie sowie bisheriger und zukünftiger Anwendungserweiterungen (z.B. Abgleich intendierter Curricula, Vergleich mit Wissensdomänen und Peerdomänen), ist es uns, unmittelbare Rückmeldungen und Anregungen zu bekommen.
Anwendungsbeispiele aus dem BMBF-geförderten Projekt tech4comp zu Kompetenzentwicklung durch Digitalisierung im Mentoring
Mithilfe einer Technik namens Variational Autoencoder kann man künstliche Gesichter erzeugen und dabei einzelne Attribute (Lächeln, Bartwuchs, Haut- und Haarfarbe) verändern. Auch ohne die Theorie im Detail zu verstehen, kann man damit kreativ experimentieren und ein Gefühl dafür bekommen, was moderne KI-Verfahren inzwischen leisten können.
Speaker*innen: Dr. Wibke Hachmann, Dr. Matthias Zaft
Wissen ist individuell und dynamisch. Wie sieht Dein Wissen aus?
In diesem Workshop kann man Darstellungen seines eigenen Wissens begegnen, die Netzwerken oder Mind Maps ähneln. Dazu werden in einem automatischen, computerlinguistischen Verfahren Wissenseinheiten (Propositionen) aus Text extrahiert (durch die Software T-MITOCAR, Pirnay-Dummer, 2010) und in Graphen dargestellt. Um eine Darstellung des eigenen Wissens zu erstellen, benötigen wir jeweils einen selbst geschriebenen Text von mindestens 350 Wörtern. Zusätzlich können auch Lieblingstexte oder solche, auf deren Wissensorganisation man neugierig ist, mitgebracht werden. Im Workshop wird ein kurzer Hintergrund gegeben, dann der jeweilige Text eigenständig durch die Software analysiert und die Ergebnisse in Kleingruppen besprochen. Im Vordergrund steht das Erlebnis der Begegnung mit Wissen in einer ganz neuen Darstellungsform. Genauso wichtig wie die Diskussion dieser Technologie sowie bisheriger und zukünftiger Anwendungserweiterungen (z.B. Abgleich intendierter Curricula, Vergleich mit Wissensdomänen und Peerdomänen), ist es uns, unmittelbare Rückmeldungen und Anregungen zu bekommen.
Anwendungsbeispiele aus dem BMBF-geförderten Projekt tech4comp zu Kompetenzentwicklung durch Digitalisierung im Mentoring
Zielgruppe: Jugendliche ab 12 Jahren, max. 10 Teilnehmer*innen, Anmeldung erforderlich
Speakerin: Prof. Dr. Korinna Bade, Stephanie Böhnke
Maschinelles Lernen ist ein wichtiger Baustein vieler KI-Systeme. Dabei lernt ein Programm selbstständig aus Beispielen, welche Gesetzmäßigkeiten sich dahinter verbergen. Einmal gelernt, kann ein System dieses Modell benutzen, um „intelligent“ zu handeln. In unserem Mitmachangebot zeigen wir dir die grundsätzliche Funktionsweise dieser Algorithmen und du kannst selbst deine eigene kleine künstliche Intelligenz schreiben. Programmierkenntnisse sind dafür nicht erforderlich, da wir eine Programmierumgebung mit Code-Blöcken verwenden.
Zwei Beispiele kannst du selbst umsetzen: Zuerst trainieren wir ein künstliches Chamäleon, welches lernt, seine Farbe an den Hintergrund anzupassen, und so immer optimal getarnt zu sein. Danach trainieren wir einen eigenen kleinen Chatbot, mit dem man sich dann unterhalten kann. Auch wenn beide Beispiele sehr unterschiedlich erscheinen, können sie doch beide mit maschinellem Lernen gelöst werden. Probiere es selbst aus!
Der Beitrag beschäftigt sich mit der Darstellung von anthropomorphisierten Robotern mit KI in der Fiktion, genauer gesagt im Film. Hierzu wird erläutert, wie sich die Darstellung in den letzten 100 Jahren verändert hat und verknüpft dies mit gesellschaftlichen Entwicklungen. Inwieweit beeinflusst die Realität dann die Fiktion und umgekehrt? Werden tradierte Weltanschauungen fortgeführt oder ermöglicht die Fiktion hierbei einen Blick in eine „bessere“ Zukunft in der die Grenzen zwischen Mensch und künstlichem Mensch verschwimmen? Kann der Film die Angst vor KI auflösen oder schürt es sie gar durch verzerrte Darstellungen der Realität? Dazu werden Beispiele von KI in Film gezeigt, die laut Umfragen der Gesellschaft für Informatik e. V. am stärksten unsere Vorstellung von KI beeinflussen (Metropolis, Blade Runner, Terminator, Wall:E, Ex Machine, I am Mother,…).
Speaker*innen: Christine Nagel, Jun.-Prof. Ingo Siegert
Eine Radio-Moderatorin nutzt ein individuelles Sprachsynthese- und Sprech-Erkennungstool, um ihre persönliche KI-Stimme zu entwickeln. Als sie das Spiel ins Laufen bringt, meint sie Freiheit zu gewinnen. SIREN, Maries künstliche Stimme, verbindet sich mit allen möglichen lebenden und toten Geistern im Netz, unter anderem mit Hannah Arendt, deren Äußerungen und Ideen verfügbar geblieben sind. SIREN stellt ihr Fragen, die unsere Gegenwart betreffen. Christine Nagels Hörspiel thematisiert, was die Digitalisierung mit der menschlichen Stimme machen kann – und das, was (möglicherweise) nicht gelingt. Dies betrifft zum Beispiel ethische, rechtliche und Fragen der Firmenphilosophie der Anbieter und Programmierer von Sprachtools.
Neuronale Netzwerke ermöglichen, dass sich KI-Stimmen selbst generieren. Sie reichern sich an mit Wissen und Strukturen des im Internet verfügbaren Materials. Doch wer ist der Urheber? Wer übernimmt die Verantwortung für die Lügen, die durch sie in der Welt sind und Marie zugeschrieben werden? Und: Was ist das Menschliche an der Stimme?
Die KI-Stimme SIREN wurde für diese Hörspiel-Produktion trainiert. Damit befragt Christine Nagel spielerisch die technischen Entwicklungen unserer Gegenwart mit den dem Hörspiel eigenen Mitteln und stellt akute, gesellschaftspolitische Fragen. Das Training der Stimme erfolgte in Zusammenarbeit mit dem Institut für Informations- und Kommunikationstechnik, Otto-von-Guericke-Universität Magdeburg, Prof. Dr.-Ing. Ingo Siegert, und mit Joscha Bach, Kognitionswissenschaftler & KI-Forscher in San Francisco. Die Schauspielerin Paulina Bittner, deren Stimme zugrunde liegt, wurde im Studio immer wieder mit einem neuen Trainingsstadium konfrontiert und reagierte im Dialog darauf. Dieser halb-dokumentarische Ansatz macht das Hörspiel zu einem Experiment: Ob und in welche Richtung sich die künstliche Intelligenz im Verlauf des Trainings entwickeln würde, war bei Beginn der Aufnahmen nicht vorhersehbar.
Das Hörspiel wurde von der Jury der Deutschen Akademie der Darstellenden Künste zum Hörspiel des Monats März 2021 gewählt und ist nominiert für das internationale Radio-Kunst-Festival GRAND PRIX NOVA in Bukarest.
Speaker*innen: Benjamin Eugster, Hannah Schwaß, Anna-Lena Barner
Vom Chatbot bis zum interaktiven Escape-Room sind wir umgeben von Systemen, die uns durch Wahloptionen und interaktive Möglichkeiten den Eindruck eines dynamischen Systems vorspielen. Oftmals stecken hinter diesen Oberflächen vergleichsweise simple Entscheidungsbäume und Operatoren. In dem Workshop werden auf zwei unterschiedlichen Komplexitätsniveaus niedrigschwellige Möglichkeiten präsentiert, wie damit Lerninhalte zum Leben erweckt werden können.
Nach einer kurzen Einführung können die Teilnehmenden in zwei Gruppen hinter die Kulissen eines digitalen Escape Rooms und eines digitalen Mini-Assistenten blicken und lernen wie hier das Verhalten mit wenigen Handgriffen verändert werden kann. Zum einen wird für die Gestaltung von interaktiven Entscheidungsbäumen in die Software H5P eingeführt (z.B. zur Gestaltung von interaktiven Stories) und zum anderen können Teilnehmende mit der Verwendung von Snap/Scratch als vereinfachter Programmierumgebung (z.B. zur Gestaltung von Mini-Assistenten) erste Schritte im Coding tätigen.
Der Workshop richtet sich an Lernende aus allen Altersgruppen und gibt einen Einblick in die unterschiedlichen Abstufungen einfacher Automatisierungsprozesse. Diese Grundlagen für das Verständnis von maschinellem Lernen stärken die informatischen Skills, die wir nicht nur benötigen um eigene digitale Umgebungen mitzugestalten, sondern auch um die Funktionsweise bestehender Systeme besser zu verstehen.
siehe 10:30
Mit dem Lernwerkzeug Any-Cubes werden Künstliche Intelligenz und Internet der Dinge begreifbar: Ganz einfach per Hand ein KI-Modell zur Bilderkennung trainieren und damit in der realen Welt Aktionen auslösen. In unserem Mini-Workshop erfährst du, wie Maschinen lernen und warum KI so vielseitig einsetzbar ist. Auch ohne Programmierkenntnisse kannst du sofort loslegen: Du entwickelst eine Idee für dein eigenes KI-Projekt und probierst sie gleich aus. Am Ende geben wir dir noch ein paar goldene Regeln mit, was beim Umgang mit KI wichtig ist. Außerdem bekommst du weiterführende Links, damit du auch zu Hause mit Künstlicher Intelligenz experimentieren kannst.
Speaker: Prof. Dr. Ulrich H.P. Fischer, Fabian Theuerkauf
Intelligente Technik soll älteren Menschen helfen, möglichst lange selbstständig zu Hause zu leben. Im Projekt Neuropathie-iA, gefördert vom Land Sachsen-Anhalt, forscht die Hochschule Harz in Zusammenarbeit mit der Otto-von-Guericke-Universität Magdeburg an technischen Assistenzsystemen, die Stürzen im Alltag vorbeugen sollen.
Über Sensoren in Einlegesohlen sammeln die Forscher Daten zur Kraftentfaltung und Koordination von Beinen und Füßen und speisen die Daten in ein zuvor entwickeltes Analyse-Framework ein. Zusammen mit Vitalparametern wie Puls- oder Atemraten werden das Gehen und Stehen analysiert. Bei Auffälligkeiten in der Schrittanalyse sollen über Methoden der Künstlichen Intelligenz konkrete Handlungsempfehlungen erfolgen, die einen drohenden Sturz vermeiden können.
Speaker: Lucien Kartal
Schon mal darüber nachgedacht, einen Roman zu schreiben? Eine Idee für eine Kurzgeschichte gehabt? Wie wäre es denn mit einem inspirierenden Filmquiz zum Thema KI-Kunst? Das ist dir zu einfach?
Dann bist du in diesem Workshop genau richtig. Stell dich der Herausforderung, in einem bunt zusammengewürfelten Team „um die Ecke zu denken“. Gemeinsam müsst ihr unseren Zufallsgenerator meistern: Dieser kombiniert euch ein KI-Thema mit einer Emotion und einem Medium. Ihr müsst eurer Kreativität dann einfach freien Lauf lassen und ein Konzept zu dieser zufälligen Kombination präsentieren.
Wer ein „gruseliges Kinderbuch über selbstfahrende Autos“ schreiben will, lernt die Möglichkeiten unserer medialen Wahrnehmung aus einer neuen Perspektive kennen. Und in Kombination mit den grenzenlosen Themen rund um Künstliche Intelligenz sind neue Impulse und jede Menge Spaß garantiert.
Speakerin: Alexa Steinbrück
KI kann einen Fußball nicht von einem kahlen Hinterkopf unterscheiden? Hält einen Schildkröte für eine Schusswaffe? KI-Technologien stolpern und irren sich. KI-Technologien sind manchmal strunzdumm. KI-Technologien machen Fehler – sporadisch bis strukturell. Wir müssen mit dem Mythos aufräumen, KI sei intelligent. Dazu haben wir eine kunterbunte „Fail compilation“ erstellt. Manchmal lustig, manchmal schrecklich. Ihr stimmt ab!
Speaker: Prof. Dr. Sebastian Stober
Wie kann mit Hilfe von Künstlicher Intelligenz Musik komponiert werden? Vor kurzem wurde Beethovens „Unvollendete“ mit KI-Unterstützung zu Ende geschrieben, und bereits seit 2020 gibt es den AI Song Contest als Ableger des Eurovision Song Contests, bei dem KI eine wesentliche Rolle im Produktionsprozess spielt. Wir werfen einen Blick auf die Technik hinter den Kulissen und experimentieren mit ihr. Was funktioniert schon gut und was noch nicht?
– ENTFÄLLT / CANCELLED –
Speakerin: Sarah Ciston
The Intersectional AI Toolkit argues that anyone should be able to understand what AI is and to help imagine what AI ought to be. The toolkit is a collection of zines that introduce intersectional approaches to AI (IAI), drawing on marginalized practices to fundamentally reshape the development and use of AI technologies. In this AI-skills and zine-making workshop, participants can join in authoring the Intersectional AI Toolkit. No special expertise is required, since we are co-learning and co-creating, invested in what all of us have to teach each other. We will investigate key questions around how AI affects us differently, what we need to understand about AI in order to reshape it, and (most importantly) what shapes we want AI to take that will be more ethical and equitable. Everyone will come away with a hand-made booklet — imagining new AI futures — that is ready to print at home and share online.
Speaker*innen: Prof. Dr. Doris Aschenbrenner, Bruno Kramm
Musik eröffnet einen emotionalen Zugang zu Technologie. Wir haben in diesem Projekt Menschen eingeladen, sich mit den Potentialen von künstlicher Intelligenz für unsere Gesellschaft auf eine ganz andere Art zu beschäftigen und damit auch andere Gruppen in der Gesamtgesellschaft zu erreichen. Die Musik wird nicht nur auf Basis von Nutzerinput durch KI-Algorithmen erzeugt, sondern auch von Mini-Robotern auf echten Instrumenten gespielt.
Panel: Joris Grahl, Konrad Kosse, Yang Ni, Lara Kuom, Sasha Becker, Lena Eichhorn
Die Macher*innen der Kurzfilme „Christoph“, „2021: Stereolith“ und „response“ (zu sehen ganztägig in der Galerie) berichten in diesem Q&A über den Schaffensprozess hinter ihren Werken.
The film project “2021: Stereolith” shows the mission of an extraterrestrial technology on planet Earth. Its destiny: to promote intelligent life and enable a transformation of humanity into an advanced stage of evolution. The monolithic something describes itself as a technical marvel, tries to engage people of different ages in conversation and incite them to progressive action. Unfortunately, the messages are not decoded to a satisfactory degree, but rather grotesquely. The extrinsic intelligence is treated like an object. Mankind and its ego are unwilling to submit to the missionary habitus. A collision occurs between mankind and technological progress, which raises the questions: How does humanity deal with “progress” and who benefits from it? Is progress always “good” and can it further deliver what it promises? An epic drama full of adventure and exploration.
Artist: Joris Grahl & Konrad Kosse (Hochschule Merseburg)
The project “response” makes use of the metaphor of the “wood wide web” – fungi span huge underground networks that also connect with plant roots and thus enable exchange between and with them. “response” creates a scenario in which a fruiting body becomes the hardware and the mycelial network the data network of a voice assistance system. This network is growing in solidarity in the interests of many. When interacting with people, the mycelium does not respond directly to commands, but in the form of impulses and reactions. There is no ego, no task-fulfilling assistance, only the active we.
Artists: Lara Kuom & Sasha Becker (Hochschule Merseburg), Lena Eichhorn (Burg Giebichenstein Kunsthochschule Halle)
Christoph is a voice assistant that can grow in reality. Whenever we communicate with her/him, her/his body will inflate and expand, touching our bodies. The story is based on real-life experiences: Yang, as a new intern, moved into a capsule hotel in Shanghai and took Christoph with him. Each capsule can accommodate only one person and he was willing to share this space with Christoph. This project tries to offer a new body and context to the voice assistant, trying to discuss the themes of intimacy, distance, and companion- ship in the space.
Artist: Yang Ni (Burg Giebichenstein Kunsthochschule Halle)
Eine Radio-Moderatorin nutzt ein individuelles Sprachsynthese- und Sprech-Erkennungstool, um ihre persönliche KI-Stimme zu entwickeln. Als sie das Spiel ins Laufen bringt, meint sie Freiheit zu gewinnen. SIREN, Maries künstliche Stimme, verbindet sich mit allen möglichen lebenden und toten Geistern im Netz, unter anderem mit Hannah Arendt, deren Äußerungen und Ideen verfügbar geblieben sind. SIREN stellt ihr Fragen, die unsere Gegenwart betreffen. Christine Nagels Hörspiel thematisiert, was die Digitalisierung mit der menschlichen Stimme machen kann – und das, was (möglicherweise) nicht gelingt. Dies betrifft zum Beispiel ethische, rechtliche und Fragen der Firmenphilosophie der Anbieter und Programmierer von Sprachtools.
Die KI-Stimme SIREN wurde für diese Hörspiel-Produktion programmiert. Damit befragt Christine Nagel spielerisch die technischen Entwicklungen unserer Gegenwart mit den dem Hörspiel eigenen Mitteln und stellt akute, gesellschaftspolitische Fragen. Die Programmierung erfolgte in Zusammenarbeit mit dem Institut für Informations- und Kommunikationstechnik, Universität Magdeburg, Prof. Dr.-Ing. Ingo Siegert, und mit Joscha Bach, Kognitionswissenschaftler & KI-Forscher in San Francisco. Die Schauspielerin Paulina Bittner, deren Stimme zugrunde liegt, wurde im Studio immer wieder mit einem neuen Programmierstadium konfrontiert und reagierte im Dialog darauf. Dieser halb-dokumentarische Ansatz macht das Hörspiel zu einem Experiment: Ob und in welche Richtung sich die künstliche Intelligenz im Verlauf der Programmierung entwickeln würde, war bei Beginn der Aufnahmen nicht vorhersehbar.
Latent Riot ist eine Reihe künstlicher Protestzeichen, die von einem generativen neuronalen Netzwerk erzeugt werden. Als Grundlage dienten 6.000 Protestschilder und -plakate des Boston Women’s March 2017. Die meist handgeschriebenen Botschaften sind witzig, wütend, humorvoll. Einige Demonstranten fügten Zeichnungen oder Collagen hinzu, um ihre Botschaft zu veranschaulichen.
Nachdem ein StyleGAN mit diesem Datensatz trainiert wurde, haben wir ihn zur Erstellung neuer Bilder verwendet. Generative neuronale Netzmodelle wie StyleGANs können sehr gut die visuellen Eigenschaften eines Trainingsdatensatzes erfassen. Wie alle Machine-Learning-Modelle versteht das Diskriminatornetzwerk eines GAN jedoch nicht, was es sieht: Der Text auf den Protestschildern wird Pixel für Pixel hinsichtlich seiner visuellen Merkmale – Konturen und Kurven – und nicht als Worte mit Bedeutungen analysiert, die sich auf die Welt um uns herum beziehen. Die Botschaften auf den Protestschildern sind Beispiele für eine äußerst prägnante, aber spielerische Sprache, voller Bezüge, Ironie und Wortspiele. Kein aktuelles KI-System ist derzeit in der Lage, diese Bezüge zur realen Welt herzustellen.
Im öffentlichen Diskurs über Künstliche Intelligenz ist das Narrativ einer nach eigenen Wünschen und Absichten handelnden KI ein verbreiteter Mythos. Latent Riot ist ein künstlerischer Beitrag zum Diskurs über die vermeintliche Agenda der Künstlichen Intelligenz und ob wir Robotern Rechte zuweisen sollten, sowie eine Reflexion über Dataset Curation.
Künstlerinnen: Amelie Goldfuß und Alexa Steinbrück
Als vermeintlich objektive Spitzentechnologie besteht die Hoffnung, dass KI menschliche Schwächen überwinden kann. Manche Menschen glauben, dass KI frei von menschlichen Voreingenommenheiten und Fehlern sei und auf Grundlage fairer und objektiver Entscheidungen so der Diskriminierung einen Riegel vorschieben könne.
Wir entmystifizieren diese Behauptung, indem wir uns konkrete Beispiele dafür ansehen, wie KI Ungleichheiten (re)produziert, und verbinden diese mit verschiedenen Aspekten, die helfen, soziotechnische Verstrickungen zu veranschaulichen.
People-Analytics-Tools erfassen und analysieren die Verhaltensdaten von Mitarbeiter*innen, kombinieren sie mit Geschäftsdaten und bieten Führungskräften Einblicke in Arbeitsabläufe, Leistung und Potenzial. Auf dieser Basis verspricht People Analytics, mitarbeiterbezogene Entscheidungen zu objektivieren und zu optimieren. Manager*innen stellen daher hohe Erwartungen an diese Tools, insbesondere angesichts der wachsenden Zahl von Mitarbeitenden, die von zu Hause aus arbeiten und sich außerhalb ihrer räumlichen Kontrolle bewegen.
Doch kann die aktuelle Generation Künstlicher Intelligenz tatsächlich menschliche Manager*innen ersetzen?
– ENTFÄLLT –
Kann eine KI kreativ sein? Gestaltet mit. GauGAN ist ein Deep-Learning-Modell aus der NVIDIA-Forschungsabteilung. Es verwandelt grobe »Kritzeleien« in fotorealistische Kunstwerke. Getauft wurde das Deep-Learning-Modell »GauGAN«, eine Hommage an den französischen Postimpressionisten Paul Gauguin, der Mitbegründer des Synthetismus war. Unser Angebot bietet Besucher*innen einen Einblick in KI-basierte Bildmanipulation. Dabei entstehen aus Ihren einfachen Zeichnungen, Linien und Flächen am Computer gemalte Landschaften, die vor Ort für Sie als Erinnerung ausgedruckt werden. Spaß, Gestaltung, Erkennen und verstehen, was mit KI in Sachen Kunst-KI-Komposition geht.
Mit einem Zeithorizont von bis zu 15 Jahren ist der Foresight-Prozess ein strategisches Instrument zur langfristigen Vorausschau. Foresight deckt Trends und gesellschaftliche Herausforderungen auf, ist „Frühwarnsystem“ und auch Ideenpool für zukünftige Projekte und Forschungsprozesse. Eine Zukunft ohne Technologien und künstliche Intelligenz ist für die meisten Wissenschaftler*innen auf dem Gebiet undenkbar. Doch was bringen die weitere Entwicklung von Informations- und Kommunikationstechnologie, von Robotik, Photonik, Materialwissenschaft und Werkstofftechnik für die Welt von morgen? Futuristische Szenarien sollen hierfür in Filmen dargestellt werden und zum Nachdenken und Diskutieren anregen.
Studierendenprojekt MLU: Bevölkerungsumfrage (Nähe Stand MLU)
Studierendenprojekt MLU: Bevölkerungsumfrage (Nähe Stand MLU)
Infostände für Hochschulen
Infostände Co-Hosts:
_Gesellschaft für Informatik
_Mittelstand 4.0.- Kompetetenzzentrum Magdeburg
Infostände Partner:
_AI & Society Lab“
15:00 – 15:30 AUSKLANG UND AUSBLICK IM FORUM
Schwerpunkt der dritten Ausgabe der KI & Wir* Convention wird das Thema KI Literacy sein. Der Begriff referiert auf die Notwendigkeit einer grundlegenden KI-Kompetenz in der breiten Bevölkerung. „(Wie) Können wir KI lernen?“, lautet die zentrale Frage angesichts einer sich rasant entwickelnden Technologie, die bei vielen noch eher Berührungsängste und Unsicherheiten hervorruft als Begeisterung und Akzeptanz.
Gemeinsam wollen wir Antworten auf diese Frage finden. Der erste Convention-Tag bietet als Konferenz Raum für Vorträge, Workshops, Webinare und Diskussionen mit KI-Expert*innen aus den unterschiedlichsten Bereichen von Kultur über Politik bis Forschung und darüber hinaus. An Tag zwei steht „KI zum Selbermachen“ im Mittelpunkt: Kreative Angebote aus der Community vom DIY-Kurs über künstlerische Installationen bis hin zu interaktiven Lernangeboten laden zum Ausprobieren, Mitmachen und Lernen ein.
Ja. Alle KI-Interessierten können am 26. und 27. November kostenlos an der Convention teilnehmen.
Ja. Zur Anmeldung geht’s hier.
Während der Convention ist es möglich und gewünscht ist, sich ganz nach persönlichen Interessen zwischen den Räumen und Angeboten zu bewegen. Eine gesonderte Anmeldung zu einzelnen Sessions ist nicht nötig, es sei denn, dies ist im Programm explizit so angegeben.
Einen Schnellüberblick über das Programm-Angebot an beiden Convention-Tagen bietet unser Programmflyer. Das ausführliche Programm mit Inhaltbeschreibungen, Referent*innen und weiteren Details findest du für Tag 1 und Tag 2 hier auf der Website.
Die 3. KI & Wir* Convention findet digital auf der Virtual-Reality-Plattform Mozilla Hubs statt. Die Teilnehmer*innen der Veranstaltung interagieren in einer virtuellen 3D-Umgebung als Avatare. Weitere Informationen zur virtuellen Welt gibt es hier.
Die Teilnehmer*innen entdecken in Form von Avataren interaktiv die virtuelle Welt. Die Avatare können selbstständig ausgewählt und nach Wunsch gestaltet werden. Weitere Informationen dazu gibt es im Handbuch zur virtuellen Welt.
Die Teilnehmer*innen betreten die virtuelle Mozilla-Hubs-Welt über das Forum. Dort präsentieren sich zum einen alle an der KI & Wir* Convention beteiligten Partner*innen mit ihren Ausstellungsständen. Zum anderen befindet sich dort die Hauptbühne, auf der das Rahmenprogramm sowie ausgewählte Sessions stattfinden. Vom Forum aus werden die Teilnehmer*innen über ein farbiges Wegleitsystem zu den einzelnen Räumen geführt, in denen die unterschiedlichen Sessions stattfinden. Zusätzlich gibt es eine Galerie, in der ausgewählte Ausstellungsstücke (Installationen, Videos, Objekte) präsentiert werden. Weitere Informationen zur virtuellen Welt gibt es hier.
Innerhalb der virtuellen Welt kannst du dich im Forum an den Infopunkt wenden und deine Fragen direkt stellen. Bei technischen Problemen kannst du außerdem einen Blick ins User Manual werfen oder unser IT-Support-Formular nutzen. Unser IT-Team antwortet dir dann umgehend.