- Les projets de la Maison Blanche prévoient de contourner le drapeau de risque anthropique pour l’intégration de l’IA.
- Les tensions au Pentagone persistent malgré des signes d’un déliement des liens avec Anthropic.
- Les législateurs poussent des règles sur l’IA visant la sécurité des enfants et la supervision d’OpenAI.
La Maison-Blanche examine un projet de directives qui pourrait permettre aux agences fédérales d’aller de l’avant avec l’intégration de nouveaux systèmes d’intelligence artificielle malgré une désignation de risque de chaîne d’approvisionnement existante liée à Anthropic.
La proposition, encore à l’étude, ouvrirait une voie pour que les agences contournent la restriction et adoptent des modèles tels que Mythos, la dernière sortie d’Anthropic. Cette décision met en évidence un possible changement dans la manière dont l’administration gère sa relation avec le développeur de l’IA, après des mois de tensions liées à des préoccupations liées à la défense.
Les consignes de draft ciblent la flexibilité d’intégration
Selon des rapports, le projet d’action exécutive pourrait fournir un mécanisme pour désamorcer le différend entre les autorités fédérales et Anthropic. Bien que les détails restent limités, l’approche rapportée permettrait aux agences de procéder à l’intégration d’outils avancés d’IA sans être bloquées par des classifications de risque antérieures.
Anthropic a refusé de commenter cette évolution, tandis que la Maison-Blanche n’a pas immédiatement répondu aux demandes de clarification. Cependant, la proposition rapportée intervient peu après qu’Anthropic ait lancé Mythos, décrit comme son système d’IA le plus avancé à ce jour. Les experts cités dans le rapport ont noté que le système montrait une forte capacité à identifier les vulnérabilités en cybersécurité et à simuler les voies d’exploitation.
Les tensions au Pentagone influencent le contexte politique
Le projet de directives fait suite à une période de friction entre Anthropic et le Pentagone. Le différend est né après que l’entreprise a refusé de lever les garanties qui restreignent l’utilisation de ses systèmes d’IA pour les armes autonomes ou la surveillance domestique. En réponse, le Département de la Défense a appliqué une désignation de risque de chaîne d’approvisionnement au développeur Claude.
Les récents commentaires de Donald Trump suggèrent un possible dégel des relations. S’exprimant après une réunion entre le PDG d’Anthropic, Dario Amodei, et des responsables de la Maison-Blanche, Trump a déclaré que l’entreprise prenait forme selon l’administration du point de vue. Interrogé sur un accord potentiel avec les autorités de la défense lors d’une apparition à Squawk Box, il a confirmé qu’un accord restait possible.
Malgré ces signaux, des divisions subsistent au sein du Pentagone, où certains responsables restent opposés à l’assouplissement des restrictions. D’autres, selon le rapport, considèrent cette impasse comme contre-productive et soutiennent les efforts pour trouver une solution, bien que de nouvelles négociations puissent encore être nécessaires.
Les législateurs font avancer des mesures de contrôle de l’IA
Par leur côté, des membres du Congrès des deux partis ont présenté des projets de loi pour traiter les risques liés à l’IA tout en assurant le développement continu. Une proposition menée par les sénateurs Ted Cruz et Brian Schatz exigerait que les fournisseurs de chatbots proposent des fonctionnalités de compte familial, permettant aux parents de surveiller l’utilisation de leurs enfants et de fixer des limites.
Cette législation fait suite aux défis juridiques en cours auxquels est confrontée OpenAI, y compris des poursuites en responsabilité du fait des produits. Parallèlement, la Chambre a fait avancer un projet de loi distinct exigeant des divulgations lorsque les entreprises savent qu’un utilisateur est mineur.
Une autre mesure bipartisane introduite par les représentants Ted Lieu et Jay Obernolte vise à développer la recherche en IA, à établir des normes et à soutenir la formation à la cybersécurité des main-d’œuvre grâce à des incitations fiscales.
À lire aussi : Anthropic engage une action en justice contre le département de la Défense des États-Unis
Disclaimer: The information presented in this article is for informational and educational purposes only. The article does not constitute financial advice or advice of any kind. Coin Edition is not responsible for any losses incurred as a result of the utilization of content, products, or services mentioned. Readers are advised to exercise caution before taking any action related to the company.
