AI Act : un nouveau pas vers une IA plus responsable

Le nouveau règlement visant à réguler le développement et l’utilisation de l’intelligence artificielle (IA) dans l’Union européenne est entré en vigueur ce 1er août 2024. Adoptée en réponse aux préoccupations croissantes concernant les risques associés à l’IA, cette législation vise à établir un cadre juridique clair pour garantir que l’IA est développée et utilisée de manière sûre et éthique.

Objectifs clé

  1. Protéger les droits fondamentaux : La réglementation met particulièrement l’accent sur la protection des droits fondamentaux des citoyens européens en veillant à ce que l’IA ne soit pas utilisée d’une manière susceptible de porter atteinte à la vie privée, à la dignité ou à la discrimination.
  2. Favoriser l’innovation : Tout en fixant des limites, la loi sur l’IA vise également à encourager l’innovation en établissant des règles claires qui favorisent le développement responsable de l’IA.
  3. Établir des normes communes : La loi sur l’IA introduit des normes harmonisées dans l’ensemble de l’UE, ce qui permet une meilleure coordination entre les États membres et fournit un cadre cohérent aux entreprises opérant dans plusieurs pays de l’UE.

Niveaux de risque

L’une des particularités de la loi sur l’IA est la régulation des systèmes d’IA en fonction de leur niveau de risque :

  • Risque inacceptable : Ces systèmes sont interdits en raison de leur dangerosité. Il s’agit par exemple des systèmes de notation sociale, ou usant de manipulations, tromperies et techniques subliminales.
  • Haut risque : Ces systèmes, qui comprennent des technologies telles que la reconnaissance faciale dans les espaces publics ou les algorithmes de recrutement, sont soumis à des exigences strictes en matière de transparence, de sécurité et de surveillance humaine.
  • Risque limité : Ils doivent respecter certaines obligations, comme celle d’informer les utilisateurs qui interagissent avec une IA.
  • Risque minimal : Ces systèmes peuvent être utilisés relativement librement, bien que le cadre encourage les bonnes pratiques.

IA à usage général

Une IA à usage général, ou « GPAI » est définie comme une IA polyvalente, similaire à ChatGPT, capable d’effectuer une série de tâches variées et d’être intégrée ou utilisés dans d’autres systèmes à haut risque. Les fournisseurs de GPAI sont invités à se conformer aux exigences suivantes :

  • Rédaction et mise à disposition de documentation technique
  • Respect du droit d’auteur
  • Publication d’un résumé du contenu utilisé pour l’apprentissage du modèle

Impact sur les entreprises et la société

La loi sur l’IA aura un impact significatif sur les entreprises actives dans le secteur de l’IA en Europe. Les entreprises devront se conformer à des exigences strictes en matière de conception, d’évaluation et de mise en œuvre de leurs systèmes d’IA. Cela pourrait entraîner des coûts supplémentaires pour les entreprises, mais aussi des opportunités pour celles qui innovent conformément aux nouvelles normes.

Pour ceux qui ne s’y conformeraient pas, le niveau de la sanction imposée dépend de la nature de l’infraction et de la taille de l’organisation. La fourchette va de 7,5 millions d’euros (équivalant à 1,5 % du chiffre d’affaires mondial) à 35 millions d’euros (équivalant à 7 % du chiffre d’affaires mondial).

Pour la société dans son ensemble, la loi sur l’IA vise à garantir que les avantages de l’IA soient maximisés tout en minimisant les risques. La législation vise à renforcer la confiance du public dans les technologies de l’IA, ce qui est essentiel pour leur adoption à grande échelle.

Mais qu’en est-il de la Suisse ? En ce qui concerne les entreprises suisses présentes sur le marché européen, elles n’auront d’autre choix que de s’y conformer. Quant aux autres, la Suisse a commencé fin novembre 2023 à travailler sur une réglementation en accord avec le droit européen ainsi que la Convention sur l’IA. Plus de détails sur la suite des événements seront apportés d’ici la fin de l’année.

Délais

À partir de son entrée en vigueur le 1er août 2024, la loi sur l’IA s’applique selon les directives suivantes :

  • 6 mois pour les IA à risques inacceptables
  • 12 mois pour les GPAI
  • 24 ou 36 mois pour les systèmes d’IA à haut risque selon leur classification

Conclusion

La loi sur l’IA est une étape importante vers la réglementation de l’intelligence artificielle à l’échelle mondiale. En établissant des normes claires et en classant les systèmes d’IA en fonction de leur risque. Contactez-nous pour adapter vos solutions et assurer leur conformité avec les nouvelles exigences.

Sources :

Résumé de haut niveau de la loi sur l’intelligence artificielle de l’UE (artificialintelligenceact.eu)

La Suisse a-t-elle raté le train de la régulation de l’intelligence artificielle? – SWI swissinfo.ch

L’AI Act européen entre en vigueur (update) | ICTjournal

Receive our news by subscribing to our newsletter


You could also like...