L’IA offre de multiples avantages aux entreprises, mais elle présente également des risques pour la confidentialité des données.
L’intelligence artificielle (IA) est partout, alimentant des applications telles que les assistants intelligents, les filtres anti-spam et les moteurs de recherche. Cette technologie présente de nombreux avantages pour les entreprises, notamment la possibilité d’offrir une expérience plus personnalisée aux clients. L’IA peut également accroître l’efficacité des entreprises et améliorer la sécurité en aidant à prévoir et à atténuer les cyberattaques.
Mais si l’IA offre des avantages, la technologie présente des risques importants pour la vie privée, notamment le potentiel de désanonymisation des données. Des recherches récentes ont révélé que les modèles d’apprentissage profond basés sur l’IA sont capables de déterminer la race des patients sur la base d’images radiologiques telles que des radiographies pulmonaires ou des mammographies – et avec une précision « nettement supérieure » à celle des experts humains.
>Voir aussi : Guide de l’âge de l’information sur les données et la vie privée
Il existe un « risque substantiel » d’atteinte à la vie privée des individus lors de l’utilisation de leurs données pour des applications d’IA, déclare Sandeep Sharma, responsable scientifique des données chez Capgemini. Cette menace est aggravée par un manque de compréhension de la vie privée parmi les organisations qui utilisent l’IA, dit-il.
Les erreurs les plus courantes sont :
- Utilisation des données à des fins autres que celles pour lesquelles elles ont été collectées
- Collecte d’informations sur des personnes n’entrant pas dans le cadre de la collecte de données
- Stocker des données plus longtemps que nécessaire
Les entreprises risquent ainsi d’enfreindre la réglementation relative à la confidentialité des données, notamment la mise à jour du règlement général sur la protection des données (RGPD).
>Voir aussi : Les meilleurs logiciels de conformité au GDPR pour les CTO
IA + confidentialité des données
Les risques posés par les systèmes basés sur l’IA couvrent de multiples vecteurs. Par exemple, le potentiel de partialité doit être pris en compte, explique Tom Whittaker, associé principal de l’équipe technologique du cabinet d’avocats britannique Burges Salmon. « Les systèmes d’IA reposent sur des données, dont certaines peuvent être personnelles. Ces données, ou la manière dont les modèles sont formés, peuvent être biaisées de manière non intentionnelle. »
Dans le même temps, il y a également une chance que les systèmes d’IA soient compromis, et que les informations privées d’un individu soient exposées. Cela s’explique en partie par le fait que les systèmes d’IA reposent sur de grands ensembles de données, ce qui pourrait en faire une cible plus importante pour les cyberattaques, explique M. Whittaker.
Parallèlement, il est possible que les données produites par un système d’IA exposent les informations privées d’une personne directement, ou lorsqu’elles sont combinées à d’autres informations.
Il existe également un risque plus général pour la société, car les systèmes d’IA sont utilisés pour un nombre croissant d’applications.
« L’évaluation du crédit, le profilage du risque criminel et les décisions en matière d’immigration en sont quelques exemples », déclare Whittaker. « Si l’IA ou la façon dont elle est utilisée est défectueuse, les gens peuvent être soumis à des intrusions plus importantes dans leur vie privée que ce qui aurait été le cas autrement. »
Cependant, d’autres experts soulignent que l’IA peut avoir un impact positif sur la vie privée. Elle peut être utilisée comme une forme de technologie d’amélioration de la vie privée (PET) pour aider les organisations à se conformer aux obligations de protection des données dès la conception.
« L’IA peut être utilisée pour créer des données synthétiques qui reproduisent les modèles et les propriétés statistiques des données personnelles », explique M. Whittaker..
L’IA peut également être utilisée pour minimiser le risque de violation de la vie privée en chiffrant les données personnelles, en réduisant les erreurs humaines et en détectant les incidents potentiels de cybersécurité, ajoute-t-il.
C’est en gardant ces avantages à l’esprit que le gouvernement estonien vise à être alimenté par l’IA d’ici 2030. Ott Velsberg, responsable des données du gouvernement, au ministère estonien des affaires économiques et des communications, affirme que l’IA joue un « rôle essentiel » dans le PET.
Par exemple, l’apprentissage fédéré peut être utilisé pour former des modèles sur des ensembles de données distants, sans partager les informations, dit-il.
Pour garantir le respect de la réglementation sur la protection des données, l’Estonie a mis au point un service de consentement permettant aux personnes de partager les données détenues par le gouvernement avec des parties prenantes externes.
« Nous avons également développé un traqueur de données fournissant un aperçu de la manière dont les données personnelles sont traitées, qui est visible sur le portail du gouvernement », explique M. Velsberg.
>Voir aussi : Liste de contrôle de l’audit sur la confidentialité des données – comment en établir une ?
Réglementation visant à garantir le respect de la vie privée
L’IA est actuellement régie par une réglementation, notamment le GDPR, mais d’autres mesures sont à venir. À l’heure actuelle, l’UE dispose des « protections de la vie privée liées à l’IA les plus solides en droit », déclare Michael Bennett, directeur de l’IA responsable à l’Institute for Experiential AI de la Northeastern University.
L’UE prévoit également d’introduire davantage de réglementations spécifiques à l’IA, souligne M. Whittaker. « Ces règlements concernent ceux qui mettent un système d’IA sur le marché de l’UE et auront donc un impact sur ceux qui, basés au Royaume-Uni, vendent ou déploient des solutions d’IA dans l’UE. Ces règlements visent à interdire certains systèmes d’IA et à imposer des obligations à ceux qui présentent un risque élevé, en précisant comment les données peuvent être stockées et utilisées. »
Entre-temps, le Royaume-Uni devrait publier un livre blanc sur la façon dont il propose de réglementer l’IA à la fin de 2022.
>Voir aussi : Quel est le rôle du gestionnaire de données ?
Lorsqu’ils tentent de gérer les risques, il est important que les chefs d’entreprise soient au courant des réglementations actuelles et prévues concernant l’IA, déclare M. Whittaker. Il souligne que le non-respect des réglementations peut entraîner des conséquences importantes : « La violation d’obligations à haut risque en vertu de la loi sur l’IA proposée par l’UE est passible d’amendes pouvant aller jusqu’à 20 millions d’euros, ou jusqu’à 4 % du chiffre d’affaires annuel. »
Pour les entreprises qui utilisent des systèmes d’IA, la transparence sur la façon dont les données sont utilisées est essentielle, affirme Whittaker. « Si les utilisateurs ne savent pas qu’ils ont été affectés par une décision prise par l’IA, ils ne seront pas en mesure de la comprendre ou de la contester. »
Il est essentiel de garantir le consentement et l’utilisation légitime des données, déclare Mark Mamone, directeur de l’information du groupe GBG. En plus de cela, il dit que les entreprises devraient s’assurer que les algorithmes eux-mêmes, ainsi que les données dont ils dépendent, sont « soigneusement conçus, développés et gérés pour éviter les conséquences indésirables et négatives ».
Pour Mike Loukides, vice-président des technologies émergentes chez O’Reilly, une bonne hygiène des données est essentielle. « Ne collectez pas de données dont vous n’avez pas besoin et assurez-vous que les informations sont supprimées au bout d’un certain temps. Assurez-vous que l’accès aux données est correctement limité et que vous avez mis en place de bonnes pratiques de sécurité. »
L’IA est certainement une technologie qui change la donne et qui sera probablement de plus en plus présente dans les entreprises, mais elle doit être gérée de manière responsable pour éviter les intrusions dans la vie privée. Dans cette optique, les chefs d’entreprise doivent réfléchir de manière plus critique à la façon dont l’IA est utilisée – et abusée, dit Loukides. « Si une application d’IA approuve des prêts, cette application est-elle juste ; à quelles données a-t-elle accès ; et quelles sont exactement les entrées du moteur d’IA ? »
Voir aussi :
Clive Humby – les données peuvent prédire presque tout ce qui concerne la gestion d’une entreprise. Clive Humby, inventeur de la carte Tesco Clubcard, explique comment ne plus se sentir submergé par les données, comment convaincre votre PDG de leur importance et pourquoi les données doivent être tournées vers l’avenir et non vers le passé.
Comment les entreprises peuvent-elles se préparer au projet de loi sur la protection des données et l’information numérique ? Alors que le projet de loi sur la protection des données et des informations numériques est actuellement examiné par le Parlement, Michael Paye, vice-président de Netwrix chargé de la recherche et du développement, explique comment les entreprises peuvent se préparer de manière efficace.
Oubliez la transformation numérique : la transformation des données est ce qu’il vous faut – Stefano Maifreni, fondateur d’Eggcelerate, explique pourquoi les organisations doivent se concentrer sur la transformation des données pour maximiser la valeur à long terme.