Diese Woche in KI: Milliardäre sprechen über die Automatisierung von Arbeitsplätzen weg

Hallo, Leute, willkommen beim regelmäßigen KI-Newsletter von TechCrunch. Wenn Sie dies jeden Mittwoch in Ihrem Posteingang erhalten möchten, melden Sie sich hier an.

Sie haben vielleicht bemerkt, dass wir letzte Woche den Newsletter ausgelassen haben. Der Grund? Ein chaotischer KI-Nachrichtenzyklus, der durch den plötzlichen Aufstieg des chinesischen KI-Unternehmens DeepSeek und die Reaktionen praktisch aller Branchen und Regierungen noch hektischer wurde.

Zum Glück sind wir wieder auf Kurs - und das nicht einen Moment zu früh, wenn man die nachrichtenreichen Entwicklungen von OpenAI am letzten Wochenende betrachtet.

Der CEO von OpenAI, Sam Altman, machte einen Zwischenstopp in Tokio, um mit Masayoshi Son, dem CEO des japanischen Mischkonzerns SoftBank, auf der Bühne zu sprechen. SoftBank ist ein wichtiger Investor und Partner von OpenAI und hat zugesagt, beim massiven Data-Center-Infrastrukturprojekt von OpenAI in den USA zu helfen.

Was haben die beiden Milliardäre besprochen? Ein Großteil der Arbeit wird über KI "Agenten" abstrahiert, so die Berichte aus zweiter Hand. Son sagte, sein Unternehmen werde jedes Jahr 3 Milliarden US-Dollar für Produkte von OpenAI ausgeben und werde sich mit OpenAI zusammenarbeiten, um eine Plattform mit dem Ziel zu entwickeln, Millionen von traditionell weißen Kragenarbeitsabläufen zu automatisieren.

"Durch die Automatisierung und Autonomisierung aller Aufgaben und Arbeitsabläufe wird SoftBank Corp. sein Geschäft und seine Dienstleistungen transformieren und neuen Mehrwert schaffen", sagte SoftBank in einer Pressemitteilung am Montag.

Ich frage mich jedoch, was der bescheidene Arbeiter von all dieser Automatisierung und Autonomisierung denken soll?

Wie Sebastian Siemiatkowski, der CEO des Fintech-Unternehmens Klarna, der oft damit prahlt, dass KI Menschen ersetzt, scheint auch Son der Meinung zu sein, dass Agenten als Stellvertreter für Arbeiter nur zu fantastischem Reichtum führen können. Übersehen wird der Preis des Überflusses. Sollte die weitreichende Automatisierung von Arbeitsplätzen Realität werden, scheint Massenarbeitslosigkeit das wahrscheinlichste Ergebnis zu sein.

Es ist entmutigend, dass diejenigen, die an der Spitze des KI-Rennens stehen - Unternehmen wie OpenAI und Investoren wie SoftBank - sich auf Pressekonferenzen darstellen, als ob automatisierte Unternehmen mit weniger Beschäftigten auf der Gehaltsliste eine erwünschte Zukunft wären. Sie sind natürlich Unternehmen - keine Wohltätigkeitsorganisationen. Und die Entwicklung von KI ist nicht billig. Aber vielleicht würden die Menschen der KI vertrauen, wenn diejenigen, die ihre Bereitstellung leiten, etwas mehr Rücksicht auf ihr Wohlergehen zeigen würden.

Ein Gedanke zum Nachdenken.

Nachrichten

Tiefe Forschung: OpenAI hat einen neuen KI-"Agenten" gestartet, der den Menschen helfen soll, umfangreiche und komplexe Forschungen mit ChatGPT, der KI-gestützten Chatbot-Plattform des Unternehmens, durchzuführen.

O3-mini: In anderen OpenAI-Nachrichten hat das Unternehmen ein neues KI-"Reasoning"-Modell, o3-mini, nach einer Vorschau im Dezember letzten Jahres gestartet. Es ist nicht das leistungsstärkste Modell von OpenAI, aber o3-mini punktet mit verbesserter Effizienz und Reaktionsgeschwindigkeit.

EU verbietet riskante KI: Seit Sonntag kann die EU-Regulierungsbehörde den Einsatz von KI-Systemen verbieten, die sie als "inakzeptables Risiko" oder Schaden erachten. Dazu gehören KI-Systeme, die für soziale Bewertungen und unterschwellige Werbung verwendet werden.

Ein Stück über KI "Doomer": Es gibt ein neues Stück über die KI "Doomer"-Kultur, das lose auf der Ablösung von Sam Altman als CEO von OpenAI im November 2023 basiert. Meine Kollegen Dominic und Rebecca teilen ihre Gedanken nach der Premiere.

Tech zur Steigerung der Ernteerträge: Googles X "Moonshot Factory" hat diese Woche seinen neuesten Absolventen angekündigt. Heritable Agriculture ist ein daten- und maschinenlerngetriebenes Start-up, das darauf abzielt, die Anbaumethoden von Pflanzen zu verbessern.

Forschungspapier der Woche

Reasoning-Modelle sind besser als Ihr durchschnittlicher KI bei der Lösung von Problemen, insbesondere bei wissenschaftlichen und mathematischen Anfragen. Aber sie sind kein Allheilmittel.

Eine neue Studie von Forschern des chinesischen Unternehmens Tencent untersucht das Problem des "Unterdenkens" in Reasoning-Modellen, wo Modelle potenziell vielversprechende Denkstränge frühzeitig und unerklärlicherweise abbrechen. Laut den Ergebnissen der Studie treten "Unterdenk"-Muster häufiger bei schwierigeren Problemen auf, was dazu führt, dass Modelle zwischen Denksträngen wechseln, ohne zu Antworten zu gelangen.

Das Team schlägt eine Lösung vor, die eine "Gedankenwechselstrafe" verwendet, um Modelle zu ermutigen, jeden Denkstrang gründlich zu entwickeln, bevor sie über alternative Möglichkeiten nachdenken, was die Genauigkeit der Modelle verbessert.

Modell der Woche

Bildnachweis: YuE

Ein Team von Forschern, unterstützt von TikTok-Eigentümer ByteDance, dem chinesischen KI-Unternehmen Moonshot und anderen, hat ein neues Open-Modell veröffentlicht, das in der Lage ist, relativ hochwertige Musik aus Eingabeanweisungen zu generieren.

Das Modell namens YuE kann einen Song von einigen Minuten Länge komplett mit Gesang und Begleitmusik ausgeben. Es steht unter einer Apache 2.0-Lizenz, was bedeutet, dass das Modell kommerziell ohne Einschränkungen genutzt werden kann.

Es gibt jedoch Nachteile. Für das Ausführen von YuE wird eine leistungsstarke GPU benötigt; die Generierung eines 30-sekündigen Songs dauert sechs Minuten mit einem Nvidia RTX 4090. Außerdem ist nicht klar, ob das Modell mit urheberrechtlich geschützten Daten trainiert wurde; die Schöpfer haben es nicht gesagt. Wenn sich herausstellt, dass urheberrechtlich geschützte Songs tatsächlich im Trainingsset des Modells enthalten waren, könnten die Nutzer zukünftigen IP-Herausforderungen gegenüberstehen.

Gemischte Tüte

Bildnachweis: Anthropic

Das KI-Labor Anthropic behauptet, eine Technik entwickelt zu haben, um sich zuverlässiger gegen KI-"Jailbreaks" zu verteidigen, die Methoden, die verwendet werden können, um die Sicherheitsmaßnahmen eines KI-Systems zu umgehen.

Die Technik, Verfassungsklassifikatoren genannt, basiert auf zwei Sätzen von "Klassifikator"-KI-Modellen: einem "Eingangs"-Klassifikator und einem "Ausgangs"-Klassifikator. Der Eingangsklassifikator fügt Vorlagen mit für Safeguards-Modelle beschreibenden Inhalten zu einem Modell hinzu, die Jailbreaks und andere nicht erlaubte Inhalte beschreiben, während der Ausgangsklassifikator die Wahrscheinlichkeit berechnet, dass eine Antwort eines Modells schädliche Informationen behandelt.

Anthropic sagt, dass Verfassungsklassifikatoren die "überwiegende Mehrheit" der Jailbreaks filtern können. Es hat jedoch seinen Preis. Jede Abfrage ist um 25% rechenintensiver, und das gesicherte Modell ist um 0,38% weniger wahrscheinlich, auf unverfängliche Fragen zu antworten.