Sam AltmanEl CEO de OpenAI, bromeó este fin de semana diciendo que las novedades que ChatGPT presentaría este lunes funcionaron como «magia»… No se equivocó.
Básicamente, la empresa de inteligencia artificial ha dejado una huella en la arena con dos palabras dirigidas a sus principales competidores en el sector tecnológico: «Es tu turno».
Mira Murati, CTO de OpenAI, fue la responsable de la presentación la actual “actualización de primavera” de ChatGPT, un evento que contó con una serie de demostraciones en vivo. La última versión del chatbot de IA -basado en el nuevo modelo de lenguaje grande de OpenAI, GPT-4o- es capaz de razonar en tiempo real Entradas Sonido, imagen y texto.
Y lo hace de una manera sorprendentemente similar a cómo lo haría un humano.
Nos acercamos peligrosamente a la película Su
Para todos los que aún no lo saben: Las funciones de voz y conversación de ChatGPT han dado un gran salto Gracias a GPT-4o, parece poder expresar emociones y variar su tono según el contexto.
En la demostración de OpenAI, la nueva inteligencia artificial sonaba como la voz de un estadounidense (algo así como Scarlett Johansson en la película Su, de Spike Jonze), aunque los investigadores de la compañía finalmente le hicieron cambiar a una voz robótica. Según un portavoz de OpenAI, la salida de audio se limitará a una selección de voces preestablecidas antes del lanzamiento.
La voz de la IA no solo sonaba humana. También mostró una asombrosa capacidad para imitar la dicción humana. El nuevo ChatGPT ríe, bromea y modera su tono según las instrucciones que recibe.
La nueva versión de la herramienta OpenAI también parece ser capaz de capturar algunas características inherentemente humanas. Cuando un investigador hiperventiló durante algunos ejercicios de respiración, el chatbot le dijo: «Mark, no eres una aspiradora».
Aparte de eso, Ahora puedes pausar ChatGPT, lo que hace que las conversaciones parezcan más naturales, como defiende el desarrollador. No hace falta esperar a que la inteligencia artificial termine de responder para hacer una pregunta o cambiar de tema.
El tiempo de respuesta durante la demostración también fue muy rápido. Como explicó un portavoz de OpenAI, el chatbot puede responder a una entrada de audio a una velocidad similar a la de una persona real: un promedio de 320 milisegundos.
Después de que tuvo lugar el evento de inicio de IA, su director ejecutivo dijo: Sam Altman, publicado en X – la red social antes conocida como Twitter – el título de la película que estuvo en la mente de muchos después de las manifestaciones.
La vista ChatGPT también ha sido mejorada.
Este lunes, el chatbot demostró sus altas habilidades para interpretar un diagrama, ayudar con la programación del código fuente, interpretar emociones y básicamente Enseñe a sus usuarios ecuaciones matemáticas viendo vídeos o imágenes Se muestra con la cámara de un simple teléfono celular.
El asistente de voz aseguró un tono feliz y relajado en todo momento.
En otra demostración publicada en línea, GPT-4o incluso pudo analizar videos del espacio alrededor de un usuario, teniendo en cuenta que la persona llevaba una sudadera con capucha OpenAI y estaba rodeada de dispositivos de grabación para adivinar que podría estar preparando un anuncio relacionado con su propio desarrollador.
A pesar de El chatbot pareció tener algunos problemas durante el evento. por OpenAI, como cuando malinterpretó una imagen o comenzó a responder de manera inexacta antes de que terminara la pregunta, estos errores casi hicieron que la herramienta pareciera más humana.
Todo parece más natural y avanzado que lo que has visto en la competencia.
En un momento, ChatGPT comenzó a responder una pregunta antes de que el investigador mostrara la ecuación a la cámara y detuviera abruptamente el chatbot.
«Vaya, estaba demasiado emocionado», respondió el chatbot. «Estoy lista cuando tu lo estes.»
También parecía responder con respuestas que imitaban sentimientos de gratitud. Cuando el investigador le mostró al chatbot una imagen de una fuente que decía que le encantaba ChatGPT, la herramienta respondió con un «Oh» y le dijo que fue «muy amable» de su parte.
En otra ocasión, ChatGPT afirmó que el investigador lo hizo sonrojar cuando habló de lo “útil y sorprendente” que era el chatbot de inteligencia artificial.
OpenAI hizo estos anuncios apenas un día antes de la gran conferencia anual de desarrolladores de Google, Google I/O 2024, donde se espera que la compañía de tecnología muestre avances en sus diversos productos de inteligencia artificial, como su propio chatbot Gemini.
Es probable que el momento del evento OpenAI y las impresionantes demostraciones causen confusión entre los expertos en IA. la fascinación de saber si ChatGPT está por delante del chatbot de Google o si la compañía de Mountain View tiene un as bajo la manga.
Por ahora, la actualización de primavera de OpenAI muestra una vez más lo impresionante que puede ser ChatGPT, especialmente en comparación con otros asistentes de voz con IA.
alexa, de Amazonas; Siri, por manzana; Y Google Parecen estar prestando atención. Sus asistentes de voz son conocidos por responder de forma robótica y directa a las preguntas que se les hacen, en lugar de ser verdaderas herramientas de conversación. En este sentido, ignora por completo al nuevo ChatGPT, que está basado en el modelo GPT-4o.
Apple, por su parte, parece consciente del abismo que separa las versiones anteriores de ChatGPT de Siri. La información publicada recientemente sugiere esto La empresa tecnológica había decidido revisar el asistente de voz del iPhone después de que los ejecutivos de Apple pasaron semanas probando ChatGPT y se dieron cuenta del poder detrás de su tecnología.
También se ha rumoreado que ambas compañías, Apple y OpenAI, han estado en conversaciones y que el fabricante del iPhone podría terminar licenciando el modelo de inteligencia artificial de ChatGPT para algunas funciones de sus teléfonos (por anunciar).
Los fanáticos de Apple no tendrán que esperar mucho para obtener más información. Se espera que la compañía presente sus actualizaciones de IA el 10 de junio en la Conferencia Mundial de Desarrolladores (WWDC) anual de Apple.
Mientras tanto, Es posible que Amazon todavía tenga la intención de lanzar una versión paga de Alexa, “Alexa Plus”, que funcionaría con inteligencia artificial generativa. Se dice que el nuevo asistente de voz del gigante del comercio electrónico ofrecerá respuestas más conversacionales y personalizadas, pero aún no se ha anunciado una fecha de lanzamiento.
Por ahora, al igual que con la primera versión de ChatGPT, OpenAI ha demostrado una vez más lo impresionante que puede ser su tecnología y está dejando que el resto de la industria tecnológica demuestre que puede ponerse al día.
Comments