
OpenAI hat die Alpha-Veröffentlichung von angekündigt Der erweiterte Sprachmodus von ChatGPT, angetrieben voninnovatives GPT-4o-Modell. Diese revolutionäre Funktion verspricht Erfolg hyperrealistische Audioantworten, wird ab heute zunächst einer kleinen Gruppe von ChatGPT Plus-Benutzern zugänglich sein, mit dem Ziel, die Verfügbarkeit auf alle Plus-Abonnenten auszudehnen bis Herbst 2024.
Sprachmodus: Der Sprachmodus von ChatGPT ist offiziell
Die Präsentation des Sprachmodus mit GPT-4o, die im Mai stattfand, hatte dank dessen großes Interesse und Bewunderung in der Öffentlichkeit hervorgerufen außergewöhnliche Generationsgeschwindigkeit und die verblüffende Ähnlichkeit mit einer echten menschlichen Stimme, die Vergleiche mit der der berühmten Schauspielerin Scarlett Johansson hervorgerufen hat.
OpenAI bestritt, die Stimme der Schauspielerin verwendet zu haben, entfernte die Stimme anschließend aus der Demo und kündigte im Juni an, a Verschieben Sie die Veröffentlichung des erweiterten Sprachmodus zur Verbesserung der Sicherheitsmaßnahmen.
In dieser Alpha-Phase werden einige der im Frühjahrsupdate gezeigten Funktionen, wie z. B. Video- und Bildschirmfreigabe, nicht enthalten sein und zu einem späteren Zeitpunkt eingeführt. Allerdings a ausgewählte Gruppe von Premium-Nutzern erhalten Zugriff auf die in der Demo vorgestellte ChatGPT-Sprachfunktion.
Lesen Sie auch: SearchGPT: Was ist die OpenAI-Suchmaschine und wie funktioniert sie?
Der Advanced Voice-Modus unterscheidet sich von der derzeit von ChatGPT angebotenen Audiolösung, die auf drei unterschiedlichen Modellen basiert. GPT-4o, dank ihm Natur multimodalist in der Lage, diese Aufgaben ohne Rückgriff auf Hilfsmodelle zu verarbeiten und mit einem solchen stimmliche Antworten zu generieren Deutlich reduzierte Latenz. Darüber hinaus unterstreicht OpenAI die Fähigkeit von GPT-4o emotionale Nuancen in der Stimme wahrnehmen, wie Traurigkeit und Aufregung, und Gesang zu erkennen.
Um eine sorgfältige Überwachung der Sprachnutzung von ChatGPT zu gewährleisten, hat sich OpenAI für a entschieden allmähliche Freigabe. Mitglieder des Alpha-Programms erhalten eine Benachrichtigung in der ChatGPT-App, gefolgt von einer E-Mail mit Anweisungen zur Nutzung der Funktion.
Die Stimmfähigkeiten von GPT-4o Sie wurden in 45 Sprachen getestetDies zeigt das Engagement von OpenAI, diese Technologie einem breiten internationalen Publikum zugänglich zu machen. Darüber hinaus hat das Unternehmen neue Filter für implementiert Verhindern Sie Anfragen zur Musikerstellung oder anderes urheberrechtlich geschütztes Audiomaterial und schützt somit geistiges Eigentum.
Der erweiterte Sprachmodus von ChatGPT ist zunächst auf beschränkt vier voreingestellte Stimmen von ChatGPT: Juniper, Breeze, Cove und Ember, erstellt in Zusammenarbeit mit professionellen Synchronsprechern. ChatGPT ist nicht in der Lage, die Stimmen anderer Personen zu imitieren und blockiert jegliche Ausgabe, die von diesen Standardstimmen abweicht, wodurch ein ethischer und verantwortungsvoller Umgang mit der Technologie gewährleistet wird.