De momento, solo tendrán acceso al nuevo modo de voz un grupo selecto de usuarios de ChatGPT Plus, y se espera que esté disponible para todos los de la suscripción en los próximos meses. El reconocimiento de imágenes y otras funciones de GPT-4o se lanzarán más adelante.
***
- Usuarios de ChatGPT Plus podrán probar la versión alfa del modo de voz
- De momento estará disponible para un pequeño grupo de usuarios
- La idea es que llegue a los usuarios Plus en los próximos meses
- Funciones adicionales como reconocimiento de imágenes y otras propiedades vendrán más adelante
OpenAI, la empresa desarrolladora del popular bot de inteligencia artificial ChatGPT, anunció que un grupo selecto de usuarios ya están poniendo a prueba el nuevo modo de voz avanzado integrado al chatbot, con el cual pueden mantener conversaciones fluidas y hacer solicitudes según sus necesidades.
La información vino a lugar en un conjunto de tweets publicados por OpenAI en su cuenta oficial de X, donde informó que esta nueva función está disponible de momento para un selecto grupo de usuarios de ChatGPT Plus, y detalla:
El modo de voz avanzado ofrece conversaciones más naturales en tiempo real, le permite interrumpir en cualquier momento y detecta y responde a sus emociones.
We’re starting to roll out advanced Voice Mode to a small group of ChatGPT Plus users. Advanced Voice Mode offers more natural, real-time conversations, allows you to interrupt anytime, and senses and responds to your emotions. pic.twitter.com/64O94EhhXK
— OpenAI (@OpenAI) July 30, 2024
En otro mensaje, el equipo de OpenAI informó que notificarán a los participantes de esta versión alfa enviándoles un correo electrónico con instrucciones. También indicaron que próximamente esta propiedad llegará a más usuarios, hasta abarcar a todas las personas que tengan la versión Plus a más tardar en los próximos meses.
Sobre la función de voz, indican que esta ha mejorado mucho tras el trabajo realizado en los últimos meses, y agregan:
Probamos las capacidades de voz de GPT-4o con más de 100 miembros externos del equipo rojo en 45 idiomas. Para proteger la privacidad de las personas, hemos entrenado al modelo para que solo hable con las cuatro voces preestablecidas y hemos creado sistemas para bloquear las salidas que difieren de esas voces. También hemos implementado barreras de protección para bloquear solicitudes de contenido violento o protegido por derechos de autor.
Nuevas funciones con GPT-4o
La nueva función de voz para ChatGPT se mostró oficialmente por primera vez a mediados de mayo, esto en una presentación en vivo realizada por los miembros de OpenAI. Allí conversaron directamente por voz con el chatbot, el cual respondió a todas las solicitudes, sirviendo incluso de intérprete para traducir conversaciones entre personas en distintos idiomas.
Además de mostrar las funciones de voz, OpenAI también informó en ese momento que ChatGPT incorporaría la posibilidad de interpretar imágenes mostradas en cámara y/o archivos, así como otras propiedades vinculadas a su nuevo modelo GPT-4o.
Con respecto a las propiedades antes mencionadas, el equipo detalló que de momento solo se habilitarán las funciones de voz, pero que las otras restantes se lanzarán más adelante.
Volviendo con la versión alfa de las funciones de voz, el equipo detalló que emplearán los datos derivados de las pruebas para mejorar la experiencia y pulir más detalles. en los próximos días compartirán un informe detallado “sobre las capacidades, limitaciones y evaluaciones de seguridad de GPT-4o”.
Artículo de Angel Di Matteo / DiarioBitcoin
Imagen de DiarioBitcoin, de libre uso, bajo licencia de dominio público
ADVERTENCIA: Este es un artículo de carácter informativo. DiarioBitcoin es un medio de comunicación, no promociona, respalda ni recomienda ninguna inversión en particular. Vale señalar que las inversiones en criptoactivos no están reguladas en algunos países. Pueden no ser apropiadas para inversores minoristas, pues se podría perder el monto total invertido. Consulte las leyes de su país antes de invertir.