Nous nous réjouissons des avantages de la technologie d’intelligence artificielle, mais il est difficile de passer outre des problèmes liés à la protection des données et de la vie privée soulevés par les services qui utilisent cette technologie. Après tout, l’intelligence artificielle est une technologie qui se nourrit des données fournies par les utilisateurs et elle se reforme en permanence. Les chatbots, très populaires de nos jours, se servent du contenu de chaque conversation tenue avec les utilisateurs, en vue de leur propre formation.
Il ne serait pas faux de dire que la première chose qui vient à l’esprit lorsqu’il s’agit de protection des données est la protection des données personnelles, car les lois sur la protection des données personnelles sont strictement appliquées dans le monde entier et les individus sont de plus en plus conscients de cet enjeu. Cependant, la technologie de l’intelligence artificielle représente une menace au moins aussi grande pour les données confidentielles des entreprises.
L’un des meilleurs exemples en est la fuite, en avril de cette année, de certaines informations confidentielles et sensibles de l’entreprise par des employés de Samsung qui les avaient copiées sur le chatbot ChatGPT à trois reprises. Dans l’un de ces incidents, un employé de Samsung avait copié le code source confidentiel d’un logiciel de l’entreprise sur le chatbot ChatGPT et lui avait demandé de trouver un bug dans le code source. Lorsque la direction de l’entreprise s’était rendu compte de ces fuites de données, elle avait interdit aux employés de Samsung d’utiliser ChatGPT.
Copier les informations confidentielles de l’entreprise de cette manière signifie que ces informations sont envoyées à des serveurs contrôlés par des tiers et hors du contrôle du titulaire des données. Le fait que l’intelligence artificielle, qui s’entraîne avec les données qu’elle traite, puisse utiliser ces informations dans ses interactions avec d’autres utilisateurs augmente la gravité de la situation.
Face à ce risque de fuite, les entreprises qui veulent assurer la sécurité des données de l’entreprise envisagent diverses méthodes telles que l’interdiction d’utiliser des services fondés sur l’intelligence artificielle ainsi que la limitation de l’accès à ces services à certains niveaux d’employés.
À la lumière de tous ces développements, Open AI, qui a développé ChatGPT, a fait un pas vers l’amélioration de la sécurité des données d’entreprise. Ainsi, le 28 août 2023, Open AI avait fait une annonce concernant son nouveau service ChatGPT Enterprise et avait souligné que l’une des caractéristiques les plus importantes de ChatGPT Enterprise était d’assurer la sécurité et la confidentialité au niveau de l’entreprise. Grâce à la politique de confidentialité de Chat GPT Enterprise, les entreprises auront un contrôle total sur leurs propres données et celles-ci ne seront pas incluses dans le cycle d’apprentissage de l’intelligence artificielle.
Une interdiction totale des services fondés sur l’IA ne semble évidemment pas être une solution réaliste à long terme. Toutefois, garantir la sécurité des données des entreprises, qui constituent peut-être leur patrimoine le plus précieux de nos jours, est une nécessité qui ne doit pas être sous-estimée. Il ne fait aucun doute que les développements en matière d’intelligence artificielle et de sécurité des données se poursuivront à un rythme rapide.