Home MONDE Comment les fraudeurs utilisent ChatGPT : Europol a publié un rapport urgent

Comment les fraudeurs utilisent ChatGPT : Europol a publié un rapport urgent

0
Comment les fraudeurs utilisent ChatGPT : Europol a publié un rapport urgent
Comment les fraudeurs utilisent ChatGPT : Europol a publié un rapport urgent

Le service de police de l’Union européenne (Europol) a publié un rapport urgent avertissant que ChatGPT et d’autres systèmes d’intelligence artificielle pourraient être utilisés pour la fraude en ligne et d’autres cybercrimes, rapporte Euractiv.

ChatGPT – un chatbot à intelligence artificielle, développé par le laboratoire OpenAI. Il s’agit d’un grand modèle de langage statistique, optimisé pour le dialogue et affiné avec des techniques d’apprentissage tutoré et par renforcement. Le prototype est basé sur le modèle OpenAI GPT-3.5 – une version améliorée de GPT-3.

Ouvrir l’IA est un laboratoire de recherche en intelligence artificielle composé de la société à but lucratif OpenAI LP et de sa société mère, l’organisation à but non lucratif OpenAI Inc. En outre, il est considéré comme un concurrent de DeepMind, menant des recherches dans le domaine de l’intelligence artificielle (IA) dans le but déclaré de promouvoir et de développer une IA conviviale de manière à ce qu’elle profite à l’humanité dans son ensemble.

Les données sont de grands modèles de langage qui peuvent être utilisés à diverses fins telles que ChatGPT par Open AI, peut profiter aux entreprises et aux utilisateurs individuels. Cependant, l’Agence européenne de police a souligné qu’ils constituaient également un problème pour les forces de l’ordre, car les criminels peuvent les utiliser à leurs propres fins.

« Les criminels adoptent généralement rapidement les nouvelles technologies et inventent rapidement des exploits criminels spécifiques, présentant les premiers exemples pratiques quelques semaines seulement après la publication. ChatGPT« , indique le rapport.

La publication résulte d’une série d’ateliers organisés par le laboratoire d’innovation d’Europol pour discuter des utilisations criminelles potentielles ChatGPT comme l’exemple le plus frappant de grands modèles de langage et comment ces modèles peuvent être utilisés pour soutenir le travail d’enquête.

L’agence de l’UE souligne le fait que les règles de modération ChatGPT peut être contourné à l’aide de la technique dite d’indication – la pratique consistant à saisir des données dans un modèle d’IA précisément pour obtenir un certain résultat.

Parce que ChatGPT est une nouvelle technologie, donc avec les mises à jour, il y a toujours des failles qui peuvent demander à l’IA de se faire passer pour un personnage fictif ou de fournir une réponse en code. D’autres solutions de contournement peuvent remplacer les mots déclencheurs ou modifier le contexte plus tard dans l’interaction. L’organisme de l’UE a souligné que les solutions de contournement les plus efficaces pour libérer le modèle de toute restriction sont constamment améliorées et compliquées.

Les experts ont découvert un certain nombre de cas d’utilisation illégale ChatGPTqui sont conservés même dans le modèle le plus avancé OpenAI – GPT-4 – où le potentiel de réactions nocives du système dans certains cas est encore plus élevé.

Parce que ChatGPT peut générer des informations lisibles, Europol avertit que la nouvelle technologie pourrait accélérer le processus d’enquête par un attaquant sans connaissance préalable d’un domaine criminel potentiel, tel que l’invasion de domicile, le terrorisme, la cybercriminalité ou l’abus sexuel d’enfants.

« Bien que toutes les informations fournies ChatGPTest disponible gratuitement en ligne, la possibilité d’utiliser le modèle pour fournir des étapes spécifiques en posant des questions contextuelles permet aux criminels de mieux comprendre et poursuivre différents types de crimes », indique le rapport.

L’hameçonnage, la pratique consistant à envoyer un faux e-mail pour inciter les utilisateurs à cliquer sur un lien, est l’application la plus importante. Dans le passé, de telles escroqueries étaient facilement détectées en raison d’erreurs grammaticales ou linguistiques, tandis que le texte généré par l’IA permettait l’usurpation d’identité de manière très réaliste.

De même, la fraude en ligne peut gagner en crédibilité en utilisant ChatGPT pour créer de fausses activités sur les réseaux sociaux.

De plus, la capacité de l’intelligence artificielle à imiter le style et le discours de personnes spécifiques peut conduire à des abus liés à la propagande, au discours de haine et à la désinformation.

En plus du texte brut, ChatGPT peut également générer du code dans une variété de langages de programmation, permettant aux attaquants ayant peu ou pas de connaissances informatiques de convertir le langage naturel en malware.

« Il est très important que les protections qui empêchent ChatGPT de fournir du code potentiellement malveillant ne fonctionnent que si le modèle comprend ce qu’il fait. Si les invites sont décomposées en étapes distinctes, il est plus facile de contourner ces mesures de sécurité », ajoute le rapport.

ChatGPT est considéré comme une intelligence artificielle à usage général – un modèle qui peut être adapté pour effectuer diverses tâches.

Alors que le Parlement européen finalise sa position sur la loi IA, les députés débattent de l’introduction de certaines exigences strictes pour ce modèle de base, telles que la gestion des risques, la fiabilité et le contrôle de la qualité.

Un autre risque est que ces grands modèles de langage puissent devenir disponibles sur le dark web sans aucune garantie et être entraînés sur des données particulièrement malveillantes. Le type de données dont ces systèmes se nourriront et comment ils pourront être contrôlés sont les principales questions du futur.