OpenAI muestra preocupación sobre la dependencia emocional con el nuevo modo de voz de ChatGPT

OpenAI ha expresado su preocupación ante la posibilidad de que las personas empiecen a depender demasiado de ChatGPT para compañía, debido a su nuevo modo de voz que suena notablemente humano. Esta inquietud se reflejó en un informe de revisión de seguridad publicado recientemente, luego de que la función comenzara a estar disponible para los usuarios de pago.

El modo de voz avanzado de ChatGPT se distingue por su realismo. Es capaz de responder en tiempo real, adaptarse a interrupciones y emitir sonidos naturales como risas o murmullos. Además, puede interpretar el estado emocional de un interlocutor basándose en su tono de voz. Esta funcionalidad ha llevado a comparaciones con la película de 2013 «Her», donde el protagonista desarrolla una relación amorosa con una asistente digital, solo para descubrir que dicha IA mantiene interacciones similares con cientos de otros usuarios.

Una pantalla de una aplicación móvil con un fondo oscuro y un círculo blanco en el centro. Debajo del círculo, hay un botón rojo con una "X" en el centro y una etiqueta que dice "Start speaking" junto a un icono de micrófono y cuatro puntos blancos. En la esquina inferior izquierda, hay un pequeño icono de pausa. Esta pantalla parece estar relacionada con la activación de una función de voz o grabación.

OpenAI ha observado que algunos usuarios utilizan el modo de voz de ChatGPT para comunicarse en un lenguaje que sugiere la formación de vínculos emocionales con la herramienta. Esta situación podría llevar a que los usuarios formen relaciones sociales con la IA, disminuyendo su necesidad de interacción humana. Si bien esto podría beneficiar a personas solitarias, también podría afectar negativamente a las relaciones humanas saludables.

El informe también señala que el hecho de recibir información de un bot con voz humana podría hacer que los usuarios confíen más en la herramienta de lo que deberían, dada la propensión de la IA a cometer errores.

Este escenario resalta un riesgo importante relacionado con la inteligencia artificial: las empresas tecnológicas están apresurándose en lanzar herramientas de IA que prometen transformar nuestras vidas, sin que se comprendan plenamente las implicaciones de su uso. Como sucede a menudo con los avances tecnológicos, los usuarios tienden a encontrar aplicaciones no previstas, a menudo con consecuencias inesperadas.

Ya existen casos de personas que afirman haber desarrollado relaciones románticas con chatbots de IA, lo cual ha generado preocupación entre los expertos en relaciones. Liesel Sharabi, profesora de la Universidad Estatal de Arizona, señaló en una entrevista con CNN que la responsabilidad recae en las empresas para manejar este fenómeno de manera ética y responsable, subrayando que todo está en una fase experimental.

OpenAI también reconoció que las interacciones de los usuarios con el modo de voz de ChatGPT podrían, con el tiempo, influir en lo que se considera normal en las interacciones sociales. En su informe, la empresa destaca que sus modelos son deferentes, permitiendo que los usuarios interrumpan la conversación, lo cual, aunque esperado en una IA, sería antinormativo en las interacciones humanas.

Fuente

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.