GPT-4o ist das neueste Omnimodel von OpenAI, das bald über ChatGPT und die API zugänglich sein wird und eine nahtlose Integration von Audio, Text und Video bietet.
OpenAI hat in einem überraschenden Live-Event das neue Modell GPT-4o präsentiert, eine innovative Weiterentwicklung in der Welt der künstlichen Intelligenz. Mira Murati, eine führende Persönlichkeit bei OpenAI, kündigte die Einführung von GPT-4o an, das als Omnimodel klassifiziert wird und die Integration von Audio, Text und Video in einer nativen Art und Weise ermöglicht. Verfügbar soll das Modell bereits in Kürze über ChatGPT sowie die OpenAI API sein. Weiters gibt es eine Desktop-App, die das Teilen des Bildschirms mit der künstlichen Intelligenz ermöglicht. Die UI in der Browser-Version wurde auch überarbeitet.



Zudem unterstützt das neue Modell die Live-Interaktion per Kamera, wobei die künstliche Intelligenz in Echtzeit analysieren kann, was ihr präsentiert wird. Über 100 Millionen Menschen lernen, kreieren und arbeiten mit ChatGPT.
Strategischer Zeitpunkt vor Googles I/O-Event
Die Ankündigung von OpenAI erfolgt kurz vor der diesjährigen Google I/O, die am 14. Mai 2024 stattfinden wird. Google ist bekannt dafür, bei seiner Hausmesse ebenfalls spannende KI-Innovationen zu präsentieren. Mit der Bekanntgabe des neuen Omnimodels positioniert sich OpenAI als führender Akteur im Bereich der künstlichen Intelligenz und könnte damit direkt vor Googles Veranstaltung für Aufsehen sorgen.
Keine Hinweise auf GPT-5 oder eigene KI-Suche
Interessanterweise hat OpenAI klar gemacht, dass es keine Neuigkeiten zu einem möglichen GPT-5 oder einer eigenen KI-Suchmaschine geben wird. Diese Informationen wurden vorab in einem Beitrag auf der Plattform X geteilt, in dem OpenAI und insbesondere Sam Altman die Entwicklungen und die Vorfreude auf das Live-Event angeteasert haben.
Im Vorfeld des Events hat OpenAI seine Webseite temporär auf eine spezielle Seite umgeleitet, auf der Besucher ein Youtube-Video zum bevorstehenden Spring-Update ansehen konnten.