Lunes, 01 de julio de 2024
Suscríbase
Lunes, 01 de julio de 2024
Suscríbase
OpenAI

OpenAI retrasa la llegada del modo de voz avanzado de ChatGPT

GPT-4o, se diseñó para ofrecer una interacción entre la persona y la máquina "más natural", con la capacidad de comprender una combinación de entradas de texto, audio e imagen y generar respuestas en la misma medida con gran velocidad.

Suministrada por EFE

OpenAI ha retrasado la llegada del modo de voz avanzado que introduce el modelo de lenguaje GPT-4o en el 'chatbot, y que habilita una conversación más natural, con "emociones y señales no verbales",para asegurarse de que cumplen los "altos estándares de seguridad y fiabilidad".

GPT-4o, presentado en mayo, se diseñó para ofrecer una interacción entre la persona y la máquina "más natural", ya que tiene la capacidad de comprender una combinación de entradas de texto, audio e imagen y generar respuestas en la misma medida con gran velocidad.

Incluye, además, un 'Modo voz' avanzado, que permite elegir entre una serie de voces para personalizar la interacción con el chatbot'. Precisamente, una característica que ha generado polémica y ha llegado a la retirada de la voz Sky por parecerse a la de la actriz Scarlett Johansson, quien ya puso voz a un asistente de inteligencia artificial en la película Her, de 2013.

Este modo iba a probarse con un pequeño grupo de usuarios en julio, pero OpenAI ha decidido retrasar su inicio, porque necesitan "un mes mas" para alcanzar el estándar que se han marcado, como han informado a través de un comunicado publicado en X.

En este tiempo, mejorarán la capacidad del modelo para detectar y rechazar contenido no apropiado y para mejorar la experiencia de usuario. También trabajarán en la infraestructura que respaldará su uso a gran escala y en tiempo real.

La hoja de ruta contempla el lanzamiento de este modo de voz en otoño para los usuarios de la suscripción Plus, aunque puede cambiar. Adicionalmente, esperan incorporar nuevas capacidades de vídeo y uso compartido de pantalla.

"El modo de voz avanzado de ChatGPT puede comprender y responder con emociones y señales no verbales, acercándonos a conversaciones naturales en tiempo real con IA", aseguran desde OpenAI. Por ello, dicen, los plazos en los que está disponible dependerán de cumpla sus "altos estándares de seguridad y fiabilidad".

Temas relacionados


Salud

La frustración como respuesta emocional, descubra sus manifestaciones y cómo manejarlas


agujeros negros

Primera observación directa de un agujero negro orbitando otro mayor


Familia real

La princesa de Gales publica una foto familiar para felicitar al príncipe Guillermo por su cumpleaños