OpenAI, die Firma hinter ChatGPT, hat eine weitere LLM bzw. generative KI veröffentlicht: OpenAI Sora. Eine generative KI die auf Basis von ›Prompts‹ (also Text) bis zu 60 Sekunden lange Videos produzieren kann. Über die Kinderkrankheiten sollte man hinwegsehen, die werden schnell ausgebügelt sein. Die Ergebnisse sind beeindruckend und erschreckend zu gleich: Wofür soll das gut sein, außer für die Disruption des Stock-Video-Marktes und dem Erstellen von Fakes und Desinformation?
Dafür:
Es geht OpenAI, und anderen KI-Firmen, darum, den Sprung von Generative AI (GAI) zu Artificial General Intelligence (AGI) zu schaffen: Weg von Algorithmen, die nur raten und nicht denken können, hin zu einer »echten« KI, die selbst denkt. Und dafür braucht es Trainingsdaten. Jede Menge Trainingsdaten. Denn KIs bzw. LLMs sind langsame Lerner und auch wenn YouTube jeden Tag mit mehr Videos bestückt wird, als man noch gucken kann, sind die Daten nicht gut für Trainings verwertbar, denn es fehlen Beschreibungen, Meta-Daten und Kontexte; und hier helfen GAIs die die Beschreibung durch einen Prompt erhalten, dann Texte, Bilder oder Videos erzeugen und Feedback durch User, ob das Ergebnis dem Wunsch bzw. dem Prompt entspricht.
Der Weg zur »echten«, selbstdenkenden KI ist sicherlich noch lang, aber der Weg dorthin wird noch mit einigen erschreckenden Überraschungen und Werkzeugen aufwarten.
und willkommen zur ersten Ausgabe des untitled-Newsletters! Ich freue mich sehr, dass ihr euch mit mir auf diese etwas ungewisse Reise begebt. In der letzten Woche bin ich meine gespeicherten Notizen, Links, Screenshots, Instagram-, Threads-, Mastodon- und Bluesky-Posts durchgegangen – oh my, wie viel kann man eigentlich in einem Monat anhäufen?! – und kompiliere euch daraus die, aus meiner Sicht, interessantesten Dinge aus dem Spannungsfeld von Design, Philosophie, Technologie, Umwelt(schutz) und Urbanismus/Architektur.
[taz] […] Die meisten Menschen versuchen ja nicht aktiv, unsere Lebensgrundlage zu zerstören – sie bewerten aber im Zweifelsfall andere legitime Ziele höher.
[Arnd Pollmann] Das stimmt. Was aber noch viel häufiger vorkommt, sind Rationalisierungen: In Wahrheit wissen Sie ganz genau, was zu tun das Richtige wäre, aber Sie haben einfach keine Lust oder keine Kraft dazu, und dann reden Sie sich und anderen die eigene Willensschwäche schön. Es herrscht aber oft auch Unklarheit, worum genau es bei dem moralischen Konflikt geht. Um Schadensvermeidung, Respekt, Freiheit, Autonomie? Um Glück, Mitleid, Rücksicht, Menschenwürde? Oder vor allem darum, vernünftig oder auch ein guter Mensch zu sein? Da gibt es nicht die eine Ethik, die den Durchblick hat und alle Probleme löst. Nur wenn Sie sich für einen bestimmten Ansatz entscheiden, können Sie im konkreten Fall nachvollziehbar begründen, was zu tun ist.
Pollmann gibt keine Anleitung, wie zu handeln ist, aber es er stellt die bestehenden Ziel-Konflikte und die damit einhergehenden Doppelmoral in den Fokus. Doppelmoral muss – wenn ich ihn richtig verstanden habe – nicht kategorisch falsch sein, aber sie darf auch nicht zur Ausrede oder zum Standard werden, um nicht zu handeln – denn wir wissen, was richtig ist.