Les sociétés d’intelligence artificielle, dont OpenAI, Microsoft, Amazon, Alphabet (Google) et Meta, se sont volontairement engagées à filigraner leur contenu devant la Maison Blanche. Cette étape est conçue pour rendre la technologie plus sûre. Reuters écrit à ce sujet.
Sept entreprises se sont engagées à développer un système de filigrane pour toutes les formes de contenu – texte, images, audio et généré par l’IA. Ils se sont également engagés à tester minutieusement les systèmes avant leur publication, à investir dans la cybersécurité et à partager des informations sur la manière d’atténuer les risques. D’autres engagements incluent le développement de solutions d’IA pour la recherche médicale et l’atténuation de la crise climatique.
“Nous saluons le leadership du président pour rassembler l’industrie technologique afin de prendre des mesures concrètes pour aider à rendre l’intelligence artificielle plus sûre et plus utile pour la société”, a déclaré Microsoft.
Le Congrès américain étudie actuellement un projet de loi qui exigerait de signaler si l’intelligence artificielle a été utilisée pour créer des images ou d’autres contenus dans des publicités politiques.
Le président Joe Biden travaille également sur un décret exécutif et une législation pour réglementer la technologie de l’intelligence artificielle.
On se rappellera que la police new-yorkaise a interpellé le premier trafiquant de drogue, qui a pu calculer à l’aide d’un système d’intelligence artificielle (IA) de la société Rekor. Les forces de l’ordre ont signé un contrat avec l’entreprise et maintenant son réseau de neurones analyse les données de 480 caméras sur les routes et signale les voitures suspectes.
Plus tôt en Australie, des scientifiques ont réussi à créer une puce électronique avec des cellules cérébrales humaines.
Soit dit en passant, plus de 8 500 auteurs de fiction, de non-fiction et de poésie ont soulevé le grave problème de l’utilisation de leur travail sans autorisation ni compensation appropriées par des IA comme ChatGPT, Bard, LLaMa et d’autres.