- OpenAI habilitará contenido para adultos verificados en diciembre.
- El CEO Sam Altman cita el principio de «tratar a los usuarios adultos como adultos» para el cambio de política.
- El candidato a gobernador de Ohio, Ramaswamy, expresa su preocupación por la manipulación de la IA.
El candidato a gobernador de Ohio, Vivek Ramaswamy, emitió advertencias sobre la sobrehumanización de la inteligencia artificial tras el anuncio de OpenAI de funciones de contenido para adultos para ChatGPT. El candidato político expresó su preocupación de que tales capacidades puedan dañar a los usuarios en lugar de beneficiarlos.
«La innecesaria ‘sobrehumanización’ de la IA se está volviendo preocupante», publicó Ramaswamy en X. Cuestionó si la nueva función mejorará la productividad o la prosperidad de los usuarios.
Ramaswamy advirtió específicamente que diseñar IA con capacidades para manipular sexual o emocionalmente a los humanos justifica una precaución extrema. El candidato predijo que estas características casi seguramente aumentarán la adicción y la soledad entre los usuarios.
Las capacidades de manipulación levantan banderas rojas
Los comentarios de Ramaswamy respondieron al anuncio del CEO de OpenAI, Sam Altman, de que ChatGPT permitirá contenido para adultos, incluido el erótico, para adultos con edad verificada a partir de diciembre. El cambio de política sigue el principio de «tratar a los usuarios adultos como adultos», según Altman.
OpenAI implementó previamente políticas de contenido restrictivas para proteger a los usuarios con problemas de salud mental. Altman declaró que la compañía ha desarrollado nuevas herramientas que permiten una relajación más segura de estas restricciones para la mayoría de los usuarios.
El próximo lanzamiento permitirá a los usuarios personalizar el tono y la personalidad de ChatGPT. Las opciones incluyen respuestas similares a las humanas, uso extensivo de emojis o estilos de conversación similares a los de los amigos. Sin embargo, estos siguen siendo opcionales en lugar de la configuración predeterminada.
Relacionado: OpenAI sube la apuesta contra Musk al probar su propia aplicación social similar a X
Surge el debate sobre los beneficios potenciales
Un usuario de X desafió la perspectiva de Ramaswamy al proponer aplicaciones beneficiosas para una IA emocionalmente atractiva. El comentarista sugirió que la tecnología podría ayudar a las personas con problemas de salud mental o servir como mediadores de relaciones.
«¿Qué pasa si realmente es una solución… un compañero que apoya a las personas con problemas de salud mental. O un tipo de ‘tercera rueda’ de un miembro de la familia que actúa como consejero matrimonial», respondió el usuario. El comentario argumentó en contra de difundir el miedo sobre resultados futuros impredecibles.
El intercambio destaca puntos de vista contrapuestos sobre la humanización de la IA. Las preocupaciones de Ramaswamy se centran en el daño psicológico potencial de los sistemas diseñados para formar conexiones emocionales con los usuarios. Los críticos argumentan que la autonomía de los adultos debería permitir a las personas elegir cómo interactúan con los sistemas de IA.
Relacionado: Reddit está en conversaciones para adoptar el orbe de escaneo de iris de Sam Altman para la verificación del usuario
Disclaimer: The information presented in this article is for informational and educational purposes only. The article does not constitute financial advice or advice of any kind. Coin Edition is not responsible for any losses incurred as a result of the utilization of content, products, or services mentioned. Readers are advised to exercise caution before taking any action related to the company.