OpenAI ha expresado su preocupación ante la posibilidad de que las personas empiecen a depender demasiado de ChatGPT para compañía, debido a su nuevo modo de voz que suena notablemente humano. Esta inquietud se reflejó en un informe de revisión de seguridad publicado recientemente, luego de que la función comenzara a estar disponible para los usuarios de pago.
El modo de voz avanzado de ChatGPT se distingue por su realismo. Es capaz de responder en tiempo real, adaptarse a interrupciones y emitir sonidos naturales como risas o murmullos. Además, puede interpretar el estado emocional de un interlocutor basándose en su tono de voz. Esta funcionalidad ha llevado a comparaciones con la película de 2013 «Her», donde el protagonista desarrolla una relación amorosa con una asistente digital, solo para descubrir que dicha IA mantiene interacciones similares con cientos de otros usuarios.
OpenAI ha observado que algunos usuarios utilizan el modo de voz de ChatGPT para comunicarse en un lenguaje que sugiere la formación de vínculos emocionales con la herramienta. Esta situación podría llevar a que los usuarios formen relaciones sociales con la IA, disminuyendo su necesidad de interacción humana. Si bien esto podría beneficiar a personas solitarias, también podría afectar negativamente a las relaciones humanas saludables.
El informe también señala que el hecho de recibir información de un bot con voz humana podría hacer que los usuarios confíen más en la herramienta de lo que deberían, dada la propensión de la IA a cometer errores.
Este escenario resalta un riesgo importante relacionado con la inteligencia artificial: las empresas tecnológicas están apresurándose en lanzar herramientas de IA que prometen transformar nuestras vidas, sin que se comprendan plenamente las implicaciones de su uso. Como sucede a menudo con los avances tecnológicos, los usuarios tienden a encontrar aplicaciones no previstas, a menudo con consecuencias inesperadas.
Ya existen casos de personas que afirman haber desarrollado relaciones románticas con chatbots de IA, lo cual ha generado preocupación entre los expertos en relaciones. Liesel Sharabi, profesora de la Universidad Estatal de Arizona, señaló en una entrevista con CNN que la responsabilidad recae en las empresas para manejar este fenómeno de manera ética y responsable, subrayando que todo está en una fase experimental.
OpenAI también reconoció que las interacciones de los usuarios con el modo de voz de ChatGPT podrían, con el tiempo, influir en lo que se considera normal en las interacciones sociales. En su informe, la empresa destaca que sus modelos son deferentes, permitiendo que los usuarios interrumpan la conversación, lo cual, aunque esperado en una IA, sería antinormativo en las interacciones humanas.