Le 30 mars 2026, le gouverneur de Californie, Gavin Newsom, a signé un décret exécutif historique, marquant le premier engagement complet de l'État en matière de protection de l'intelligence artificielle. Cette décision, qualifiée de première du genre aux États-Unis, intervient dans un contexte politique tendu et représente une réponse directe à l'assouplissement des réglementations fédérales par l'administration Trump, qui a annulé plusieurs directives de sécurité IA à la fin de l'année 2025. En choisissant de combler ce vide réglementaire au niveau étatique, la Californie, berceau mondial de la technologie, envoie un signal clair : elle refuse de laisser l'innovation se développer sans garde-fous éthiques et sécuritaires. Ce mouvement s'inscrit dans une dynamique plus large de fragmentation législative, où les États démocrates comme la Californie, New York, le Massachusetts et l'Illinois commencent à ébaucher des cadres juridiques propres, créant ainsi une nouvelle réalité pour les entreprises opérant à l'échelle nationale.

Le décret exécutif se structure autour de quatre piliers fondamentaux qui touchent aux aspects les plus sensibles de l'adoption massive de l'IA. Premièrement, il impose des protocoles stricts de sécurité pour les mineurs, exigeant des mécanismes de vérification de l'âge robustes et interdisant les interactions susceptibles de causer des dommages psychologiques, une mesure réactive face aux cas documentés de dépendance émotionnelle des adolescents envers les chatbots. Deuxièmement, il met en place un système de traçage et de marquage numérique obligatoire pour les contenus générés par IA, visant spécifiquement à combattre les deepfakes par l'ajout de filigranes indélébiles, sous peine de poursuites civiles et pénales. Troisièmement, il protège les droits à l'image numérique, interdisant l'utilisation non autorisée des traits du visage, de la voix ou d'autres données biométriques pour l'entraînement des modèles, répondant ainsi aux pressions des syndicats d'acteurs et des artistes. Enfin, il établit des normes de transparence exigeant la divulgation des sources de données d'entraînement et des limites connues des systèmes, forçant les entreprises à une honnêteté radicale sur les risques potentiels de leurs produits.

L'impact sur l'industrie technologique est immédiat et profond, car la Californie abrite les sièges sociaux ou les centres de recherche majeurs de géants tels qu'OpenAI, Anthropic, Google DeepMind et Meta AI. Pour ces entreprises, la conformité ne se limite plus à une simple considération juridique, mais devient un impératif opérationnel. La clause relative aux droits à l'image remet en cause les pratiques courantes de collecte de données sur le web public, augmentant considérablement les risques juridiques et stimulant la demande pour des ensembles de données synthétiques ou licenciés. Les entreprises doivent désormais auditer rigoureusement leurs bases de données, intégrer des systèmes de filtrage d'âge dans leurs interfaces grand public et déployer des technologies de marquage numérique. Cette complexité réglementaire, qui pourrait voir une entreprise devoir respecter jusqu'à cinquante versions différentes de lois selon les États, crée un environnement de conformité coûteux mais inévitable, poussant les firmes à recruter des équipes juridiques spécialisées dans la gouvernance de l'IA.

Sur le plan juridique et politique, bien qu'un décret exécutif soit théoriquement réversible par un successeur ou contestable devant les tribunaux, sa pérennité semble assurée par la majorité démocrate superlarge à l'Assemblée législative de l'État, qui aligne ses vues avec celles du gouverneur Newsom. De plus, le procureur général de l'État, Rob Bonta, a annoncé la création d'une unité d'application de la loi dédiée à la conformité de l'IA, dotée d'experts techniques et juridiques pour enquêter et poursuivre les contrevenants. Contrairement au Règlement européen sur l'IA qui adopte une approche par niveaux de risque et une échéance de conformité en 2027, la Californie opte pour une application immédiate et des sanctions combinant amendes civiles et poursuites pénales. Cet effet de démonstration, similaire à celui de la loi CCPA sur la vie privée, risque d'établir les standards californiens comme la norme minimale mondiale, tandis que d'autres États comme New York préparent des législations encore plus strictes, consolidant un paysage réglementaire américain fragmenté mais globalement plus rigoureux.