[ Jump to content ]

arne.xyz

delivered in beta


#philosophy

OpenAI, die Firma hinter ChatGPT, hat eine weitere LLM bzw. generative KI veröffentlicht: OpenAI Sora. Eine generative KI die auf Basis von ›Prompts‹ (also Text) bis zu 60 Sekunden lange Videos produzieren kann. Über die Kinderkrankheiten sollte man hinwegsehen, die werden schnell ausgebügelt sein. Die Ergebnisse sind beeindruckend und erschreckend zu gleich: Wofür soll das gut sein, außer für die Disruption des Stock-Video-Marktes und dem Erstellen von Fakes und Desinformation?

Dafür:

It's for training data for AGI-1. You'd think enough video exists in the world but it's actually not well labeled for AI to understand. In this way they can create memories from infinite lives AND store all the concepts used to generate them. They'll use people to help tune which data is good (thumbs up the good generations) and then it all gets fed into the next gen AI that can truly think.
via @nrose bei Threads am 2024-02-15, 22:19.

Es geht OpenAI, und anderen KI-Firmen, darum, den Sprung von Generative AI (GAI) zu Artificial General Intelligence (AGI) zu schaffen: Weg von Algorithmen, die nur raten und nicht denken können, hin zu einer »echten« KI, die selbst denkt. Und dafür braucht es Trainingsdaten. Jede Menge Trainingsdaten. Denn KIs bzw. LLMs sind langsame Lerner und auch wenn YouTube jeden Tag mit mehr Videos bestückt wird, als man noch gucken kann, sind die Daten nicht gut für Trainings verwertbar, denn es fehlen Beschreibungen, Meta-Daten und Kontexte; und hier helfen GAIs die die Beschreibung durch einen Prompt erhalten, dann Texte, Bilder oder Videos erzeugen und Feedback durch User, ob das Ergebnis dem Wunsch bzw. dem Prompt entspricht.

Der Weg zur »echten«, selbstdenkenden KI ist sicherlich noch lang, aber der Weg dorthin wird noch mit einigen erschreckenden Überraschungen und Werkzeugen aufwarten.


Dieser Beitrag erschien zuerst im untitled-Newsletter 01 am 01.03.2024.

Philosoph Arnd Pollmann im Interview in der taz: Philosoph über Moral in der Klimakrise: »Sie wissen ganz genau, was richtig ist«:

[taz] […] Die meisten Menschen versuchen ja nicht aktiv, unsere Lebensgrundlage zu zerstören – sie bewerten aber im Zweifelsfall andere legitime Ziele höher.

[Arnd Pollmann] Das stimmt. Was aber noch viel häufiger vorkommt, sind Rationalisierungen: In Wahrheit wissen Sie ganz genau, was zu tun das Richtige wäre, aber Sie haben einfach keine Lust oder keine Kraft dazu, und dann reden Sie sich und anderen die eigene Willensschwäche schön. Es herrscht aber oft auch Unklarheit, worum genau es bei dem moralischen Konflikt geht. Um Schadensvermeidung, Respekt, Freiheit, Autonomie? Um Glück, Mitleid, Rücksicht, Menschenwürde? Oder vor allem darum, vernünftig oder auch ein guter Mensch zu sein? Da gibt es nicht die eine Ethik, die den Durchblick hat und alle Probleme löst. Nur wenn Sie sich für einen bestimmten Ansatz entscheiden, können Sie im konkreten Fall nachvollziehbar begründen, was zu tun ist.

Pollmann gibt keine Anleitung, wie zu handeln ist, aber es er stellt die bestehenden Ziel-Konflikte und die damit einhergehenden Doppelmoral in den Fokus. Doppelmoral muss – wenn ich ihn richtig verstanden habe – nicht kategorisch falsch sein, aber sie darf auch nicht zur Ausrede oder zum Standard werden, um nicht zu handeln – denn wir wissen, was richtig ist.