fbpx

ChatGPT 4o: OpenAI promete una experiencia más natural e interactiva, pero ¿a qué costo?

La nueva versión de ChatGPT, trae capacidades mejoradas de interacción multimodal y rasgos más humanos, pero también aumenta los riesgos de alucinaciones y engaños por parte de la IA.
Antonia Carrasco - Periodista
6 Min de Lectura
Mira Murati OpenAI ChatGPT 4o
Mira Murati de OpenAI en la presentación de ChatGPT 4o

ChatGPT ha presentado nuevos servicios y busca ser más parecido a un humano: habla con emoción y percibe el mundo a través de la cámara de cualquier teléfono inteligente. Pero al mismo tiempo, los investigadores advierten que la inteligencia artificial aún dice cosas que no son ciertas y, en muchos casos, sigue engañando a los usuarios. ¿Será el nuevo ChatGPT 4o un superayudante de confianza o un mentiroso más convincente?

ChatGPT 4o: Más humano que nunca

ChatGPT 4o, así se llama ese nuevo modelo de OpenAI, con “O” que significa “Omnipotente” – una afirmación pretenciosa pero interesante. El modelo puede trabajar con texto, audio y video, lo que hace que la interacción sea más natural. Echemos un vistazo.

Según sus creadores, ChatGPT 4o no solo suena emocional al comunicarse con los usuarios, también puede reconocer nuestras emociones. En concreto, ¿para qué sirven estas nuevas innovaciones? Bueno, la inteligencia artificial que propone OpenAI quiere convertirse en un asistente diario.

El chatbot podría ser utilizado para traducir instantáneamente lo que estamos diciendo a un idioma diferente, por ejemplo, y todo ello permitiendo una conversación real.

Los riesgos de la IA más humana

Sin embargo, se sabe que los modelos de inteligencia artificial no funcionan tan bien en idiomas que no sean el inglés, hay que ver si eso cambiará con el nuevo ChatGPT.

Según OpenAI, también puede ayudar con tareas como prepararse para entrevistas de trabajo, dar información sobre el entorno o juzgar nuestro outfit con humor. Pero, ¿qué significa que la inteligencia artificial adopte cada vez más rasgos humanos? ¿Puede el modelo llegar a ser indistinguible de los humanos?

Tendemos a confiar en la decisión de una computadora, incluso si contradice nuestras propias creencias. Eso es lo que los científicos encontraron ya en 1999, y estudios más recientes sugieren lo mismo: los chatbots son muy convincentes. Y si hablan con una voz similar a la humana, eso podría ser aún más fácil creer en ellos, y esto puede ser un problema.

La alucinación y el engaño de la IA

¿Cómo exactamente? Bueno, la llamada “alucinación”, que es básicamente cuando una inteligencia artificial inventa hechos que además da como verdaderos, es un problema desde el inicio de la comercialización de estos modelos de lenguaje. Pero la inteligencia artificial también puede mentir, incluso si conoce los hechos correctos.

Múltiples pruebas con inteligencia artificial jugando juegos de mesa, póker o videojuegos mostraron que los sistemas han aprendido a hacer trampas para producir un resultado favorable. Es por eso que se teme que una inteligencia artificial pueda ser utilizada para engañarnos y para que entreguemos información personal, por ejemplo, como los detalles de una tarjeta de crédito.

Probablemente, muchas personas sí que caerían en las mentiras de un chatbot si este se presentara de manera más convincente, similar a la humana, especialmente si tenemos en cuenta los vínculos emocionales que puede lograr esta tecnología.

ChatGPT 4o OpenAI
En lo que parecía una escena sacada de una película de ciencia ficción, OpenAI presentó la nueva actualización de su modelo de inteligencia artificial, ChatGPT-4o.

Recientemente, un estudio mostró que los niños creen que los asistentes de inteligencia artificial como Alexa o Siri tienen sentimientos; algunos incluso dijeron que si su Alexa se descompone, no sería correcto desecharla y que puede sentirse excluida en las conversaciones.

Algunas personas ya están haciendo amigos con chatbots, y la aplicación Replika, por ejemplo, se describe a sí misma como “el compañero de inteligencia artificial que se preocupa por ti”. Con esta nueva tecnología, la conexión emocional con los bots se hará más fuerte, y esto conlleva muchos riesgos.

En 2021, un usuario de Replika se propuso asesinar a la reina de Inglaterra después de que el chatbot alentara repetidamente sus delirios. Está claro que hay que manejar con mucho cuidado esta tecnología y, sobre todo, abstenerse de dar demasiados datos personales a cualquier aplicación de inteligencia artificial, incluso ChatGPT, porque si lo usamos como sugiere la demostración, ya de entrada, el robot conocerá nuestra voz, nuestro rostro y nuestra casa.

En resumen, mientras que ChatGPT 4o promete una experiencia más fluida y natural, también aumenta los riesgos de alucinaciones y engaños por parte de la IA. Debemos ser cautelosos y no entregarnos ciegamente a esta tecnología, por más humana que parezca.

Mira el video “El nuevo ChatGPT de OpenAI: ¿un asistente perfecto o una trampa más convincente?”

 

Compartir esta Noticia