- OpenAI permettra aux adultes vérifiés d’accéder à du contenu adulte en décembre.
- Le PDG Sam Altman cite le principe « traiter les utilisateurs adultes comme des adultes » pour le changement de politique.
- Le candidat au poste de gouverneur de l’Ohio, Ramaswamy, s’inquiète de la manipulation de l’IA.
Le candidat au poste de gouverneur de l’Ohio, Vivek Ramaswamy, a lancé des avertissements sur la surhumanisation de l’intelligence artificielle suite à l’annonce par OpenAI de fonctionnalités de contenu mature pour ChatGPT. Le candidat politique a exprimé des inquiétudes quant au fait que de telles capacités pourraient nuire aux utilisateurs plutôt que de leur être bénéfiques.
« La « surhumanisation » inutile de l’IA devient troublante », a posté Ramaswamy sur X. Il s’est demandé si la nouvelle fonctionnalité améliorerait la productivité ou la prospérité des utilisateurs.
Ramaswamy a spécifiquement averti que la conception d’une IA capable de manipuler sexuellement ou émotionnellement les humains justifie une extrême prudence. Le candidat a prédit que ces caractéristiques augmenteront presque certainement la dépendance et la solitude chez les utilisateurs.
Les capacités de manipulation tirent la sonnette d’alarme
Les commentaires de Ramaswamy ont répondu à l’annonce du PDG d’OpenAI, Sam Altman, selon laquelle ChatGPT autorisera le contenu mature, y compris l’érotisme, pour les adultes dont l’âge a été vérifié à partir de décembre. Le changement de politique suit le principe de « traiter les utilisateurs adultes comme des adultes », selon Altman.
OpenAI a déjà mis en place des politiques de contenu restrictives pour protéger les utilisateurs ayant des problèmes de santé mentale. Altman a déclaré que la société a développé de nouveaux outils permettant un assouplissement plus sûr de ces restrictions pour la plupart des utilisateurs.
La prochaine version permettra aux utilisateurs de personnaliser le ton et la personnalité de ChatGPT. Les options incluent des réponses humaines, une utilisation intensive des emojis ou des styles de conversation entre amis. Cependant, ceux-ci restent facultatifs plutôt que les paramètres par défaut.
À lire également : OpenAI augmente les enchères contre Musk en testant sa propre application sociale de type X
Un débat s’ouvre sur les avantages potentiels
Un utilisateur de X a remis en question le point de vue de Ramaswamy en proposant des applications bénéfiques pour une IA émotionnellement engageante. Le commentateur a suggéré que la technologie pourrait aider les personnes ayant des problèmes de santé mentale ou servir de médiateurs relationnels.
« Et si c’était vraiment une solution… Un compagnon qui soutient les personnes ayant des problèmes de santé mentale. Ou un membre de la famille du type « troisième roue » qui agit en tant que conseiller matrimonial », a répondu l’utilisateur. Le commentaire s’est opposé à la propagation de la peur quant à des résultats futurs imprévisibles.
L’échange met en lumière des points de vue divergents sur l’humanisation de l’IA. Les préoccupations de Ramaswamy se concentrent sur les dommages psychologiques potentiels causés par les systèmes conçus pour former des liens émotionnels avec les utilisateurs. Les critiques soutiennent que l’autonomie des adultes devrait permettre aux individus de choisir comment ils interagissent avec les systèmes d’IA.
À lire également : Reddit est en pourparlers pour adopter l’orbe de balayage de l’iris de Sam Altman pour la vérification des utilisateurs
Disclaimer: The information presented in this article is for informational and educational purposes only. The article does not constitute financial advice or advice of any kind. Coin Edition is not responsible for any losses incurred as a result of the utilization of content, products, or services mentioned. Readers are advised to exercise caution before taking any action related to the company.