ChatGPT

ChatGPT sieht, hört und spricht: OpenAI zündet nächste Stufe der KI-Evolution

Die Technik-Chefin und Kurzzeit-Interimschefin von OpenAI, Mira Murati, präsentierte am Montagabend GPT-4o.
Die Technik-Chefin und Kurzzeit-Interimschefin von OpenAI, Mira Murati, präsentierte am Montagabend GPT-4o. Patrick T. Fallon / AFP
  • Drucken

Am Montagabend präsentierte OpenAI sein neuestes Produkt: GPT-4o. Es wird kostenlos sein und ist eine KI, die ein großes Stück menschlicher wurde. Sie ist Auge, Mund und Ohr - ein Omni-Modell, das auf „native Art Audio, Text und Video“ verarbeitet.

Es gibt in der Serie „The Big Bang Theory“ eine Folge, in der Raj sich das neue iPhone 4s gönnt, weil Apple kurz zuvor die Assistentin Siri vorgestellt hat. Die, anders als im echten Leben, tatsächlich wie ein Mensch mit dem Physiker interagiert. Apple brachte dieses iPhone im Oktober 2011 auf den Markt. Während Siri seitdem sich kaum weiterentwickelt hat, zündet OpenAI die nächste Stufe der KI-Evolution. Und das neue Modell wird kostenlos angeboten. 

Der November 2022 stellt im Silicon Valley eine Zäsur da. Ein Wendepunkt, der die künstliche Intelligenz aus einem beinahe immerwährenden Winterschlaf geholt hat. Seitdem ist kein Stein mehr auf dem anderen geblieben. Auch wenn nach dem ersten Hype eine gewisse Ernüchterung gekommen ist, kommt an dem Thema niemand mehr vorbei. Künstliche Intelligenz ist das Must-Have und das wird auch noch die nächsten Jahre so bleiben. Und Open AI reißt nun die letzte gewahrte Distanz zwischen Mensch und Computer ein. 

GPT-4o ist gratis; vorerst

Mit GPT-4o kommt keine weitere neue Version des Chatbots. Auch keine KI-Suchmaschine, wie in den letzten Tagen vermutet wurde. Es gibt nun eine eigene Desktop-App (mit verbesserter Benutzeroberfläche) und vereint die bekannten OpenAI-Systeme zu einem einzelnen Produkt: Statt sich zu überlegen, wie Prompts so präzise wie möglich in ChatGPT-geeigneter Sprache formuliert werden, um das gewünschte Ergebnis zu bekommen, nähert sich die KI an die natürliche Sprache an. Man kann mit „ihr“ sprechen. Die KI bekommt Augen, Mund und Ohren. OpenAI, bzw. Murati drückt es freilich anders aus und nennt es ein Omni-Modell, das auf „native Art Audio, Text und Video“ verarbeiten könne.

Egal welche Inhalte in welcher Form (Bilder, Links, Screenshots, Statistiken) vorgelegt werden, GPT-4o (o für Omni), kann sie „verstehen“ und Fragen dazu beantworten.

Wie auch schon im November 2022 setzt OpenAI zu Beginn darauf, sein System so schnell wie möglich auf Höchstleistung zu pushen. Dafür wird es vorerst kostenlos angeboten. Unklar ist, wie lange das so bleiben wird. Fest steht: es wird nicht ewig gratis angeboten werden. Das bisherige Modell Chat GPT 4.0 kostet 20 Dollar pro Monat. 

„Das Besondere an GPT-4o ist, dass es Intelligenz auf GPT-4-Niveau für alle bringt, auch für unsere kostenlosen Nutzer“, sagt OpenAI-CTO Mira Murat während der Präsentation. Mit dem neuen Modell kann das Handy zu einem hilfreichen Assistenten werden, denn über die Kamera werden die Eindrücke verarbeitet und hilfreiche Informationen eingeblendet und Fragen beantwortet. Zudem kann es auch Mathematikrechnungen auf einem Blatt Papier erkennen und eine Anleitung zur Lösung bieten. 

ChatGPT-4o (abgesehen davon, dass der Name wirklich gewöhnungsbedürftig ist) wird zu einem Konkurrenten für all jene, die aktuell mit einzelnen Diensten wie Transkription von Sprache zu Text oder Übersetzen (auch in Echtzeit) ihr Geld verdienen. Denn während der Präsentation ging das alles sehr gut und nahezu gänzlich reibungslos vonstatten. Aber für eine Live-Demo wirklich gut. Vor allem aber weiß die natürliche Stimme, die Sprache lebendig vorträgt und wenig nach Maschine und viel nach Mensch klingt, zu überzeugen. 

Google unter Zugzwang

„Mit GPT-4o haben wir ein einziges neues Modell durchgängig für Text, Bild und Ton trainiert, das heißt alle Eingaben und Ausgaben werden von demselben neuronalen Netzwerk verarbeitet“, teilte OpenAI mit. „Es fühlt sich an wie KI aus den Filmen; und es ist immer noch ein bisschen überraschend für mich, dass es echt ist“, schreibt OpenAI-Chef Sam Altman auf seinem Unternehmensblog. 

Der Termin der Präsentation am Montagabend war klug gewählt und setzt Google in Zugzwang. Denn immerhin präsentiert der Suchmaschinenriese Dienstagabend seine Neuheiten und auch jene zur KI auf der Entwicklerkonferenz I/O. Murati konnte es aber nicht zur Gänze lassen und verriet, dass in den kommenden Wochen noch „das nächste große Ding“ von OpenAI zu erwarten ist.

Hier der Livestream zum nachschauen:  

Filmempfehlung „Her“

In Spike Jonzes mehrfach Oscar-nominierter Sci-Fi-Romanze „Her“ verknallt sich Joaquin Phoenix in ein Betriebssystem – eigentlich kein Wunder, spricht es doch mit der Stimme von Scarlett Johansson.

>>> OpenAI GPT-4o

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.