Par Euny Hong
7 min de lecture
L'intelligence artificielle (IA) a été une aspiration technologique depuis des décennies, voire plus longtemps, mais ce n'est que ces dernières années que la réalisation pratique de l'IA a commencé à rattraper ce que les scientifiques imaginent. Aujourd'hui, les systèmes et outils d'IA se trouvent dans d'innombrables industries et produits, des smartphones aux voitures autonomes, en passant par les secteurs de la santé, de la vente au détail, de la fabrication et de la banque, entre autres.
Il est facile de comprendre pourquoi il y a un énorme effort pour développer les capacités de l'IA. Les ordinateurs capables de penser et de prendre des décisions de manière similaire à celle des humains ont l'avantage significatif d'être exponentiellement plus efficaces que leurs homologues humains. La possibilité de réduire les coûts, de créer des efficacités dans les systèmes et de renforcer la recherche et le progrès technologique est un avantage potentiel majeur de l'IA. C'est une des raisons pour lesquelles les dépenses mondiales des entreprises en matière d'IA devraient atteindre 110 milliards de dollars par an d'ici 2024.
Mais comme avec toute technologie puissante qui se développe rapidement, il y a des raisons d'être hésitant ou même préoccupé. Après tout, il y a une grande différence entre une vision de l'IA comme une technologie permettant l'automatisation de tâches répétitives et simples sans nécessiter de décisions importantes, et le potentiel de l'IA à créer des systèmes hautement complexes et sophistiqués capables d'apprendre au fil du temps. La première était une vision de longue date de ce que pourrait être l'IA, mais la seconde est de plus en plus considérée comme ce que représente réellement l'IA.
Ci-dessous, nous fournissons un aperçu général de certaines des nombreuses considérations éthiques et implications de l'IA. Notez cependant que c'est un domaine complexe d'étude et en constante évolution parallèlement au développement rapide des systèmes d'IA.
La technologie de l'IA est largement non réglementée par les gouvernements pour le moment. Cela signifie que les entreprises et les développeurs individuels sont essentiellement libres de créer des systèmes d'IA entièrement selon leur propre conception. Bien que la technologie de l'IA utilisée de manière ciblée pour les opérations internes d'une entreprise ou même pour une application destinée aux clients puisse sembler avoir peu de pertinence en dehors de ce cas d'utilisation, il existe néanmoins la possibilité que l'IA développée en privé ait un impact beaucoup plus important sur la société. Un exemple récent est le chatbot ChatGPT d'OpenAI, sorti en novembre 2022. En quelques semaines, ChatGPT est devenu très populaire dans le monde entier. Les utilisateurs ont adopté la technologie pour une variété de tâches, allant de l'approfondissement du processus de recherche à la triche sur les essais scolaires. En mars 2023, une version gratuite de ChatGPT reste disponible.
Les processus algorithmiques offrent des opportunités significatives pour rendre les systèmes plus efficaces, mais une préoccupation est que l'IA manque d'un élément essentiel du jugement humain. Elle peut également amplifier les biais existants et les éléments discriminatoires des systèmes existants. Le philosophe politique Michael Sandel de l'Université Harvard a posé la question : «Les machines intelligentes peuvent-elles nous surpasser, ou certains éléments du jugement humain sont-ils indispensables pour décider de certaines choses les plus importantes de la vie ?»
Prenons l'exemple des pratiques d'embauche d'une entreprise. Il existe déjà de nombreuses questions de partialité, de discrimination et de pratiques équitables liées à ce travail, même sans l'IA. Si un système d'IA est conçu pour filtrer les CV d'une entreprise, il pourrait potentiellement amplifier ces préoccupations et même leur donner une apparence de légitimité scientifique, car il est facile de supposer que les systèmes d'IA sont objectifs même s'ils ne le sont pas. D'un autre côté, cependant, une IA conçue pour lire les CV pourrait potentiellement améliorer l'accès des candidats en filtrant un bassin beaucoup plus large qu'une équipe humaine ne le pourrait jamais. Une étude estime que l'IA pourrait contribuer à pourvoir 3,3 millions d'emplois supplémentaires.
Cet exemple succinct illustre bon nombre des considérations éthiques de l'IA en ce qui concerne le jugement humain et les préjugés : comment concevoir des systèmes d'IA qui soient objectifs et qui ne reprennent pas les biais inhérents que les humains qui les créent peuvent avoir ? Comment empêcher l'IA d'amplifier les pratiques discriminatoires existantes ? Et est-il nécessaire d'éduquer le grand public sur la subjectivité inhérente de certains systèmes d'IA ?
Une autre question éthique clé pour les développeurs d'IA est la surveillance et la vie privée. Les systèmes d'IA utilisent de vastes quantités d'informations pour apprendre, et ces informations proviennent souvent d'utilisateurs qui ne sont peut-être même pas conscients que leurs données sont collectées et traitées de cette manière. Il existe un grand potentiel pour que cela ait un impact positif sur un utilisateur, mais cela peut également constituer une violation de la vie privée et être utilisé à des fins néfastes.
La surveillance est une préoccupation plus spécifique liée à la vision par ordinateur, une sous-discipline de l'IA qui apprend aux ordinateurs à traiter et reconnaître les données visuelles de manière similaire à un être humain. Les systèmes de vision par ordinateur sont responsables des scanners d'identification faciale sur les smartphones, entre autres outils. Le potentiel de cette technologie à être utilisée pour surveiller et même contrôler des individus à leur insu est élevé : le gouvernement chinois a déjà été accusé de réprimer les comportements grâce à des systèmes de surveillance par reconnaissance faciale, par exemple.
Comme pour les cryptomonnaies, les systèmes d'IA peuvent nécessiter d'énormes quantités d'énergie en raison des innombrables paramètres et des énormes quantités de données qu'ils utilisent. La génération de cette énergie peut avoir un impact environnemental, et les développeurs d'IA ainsi que les entreprises qui utilisent l'IA doivent être conscients de ces implications.
Les discussions et les meilleures pratiques concernant l'éthique de l'IA s'adaptent constamment à l'évolution de la technologie. Les entreprises qui développent ou utilisent des systèmes d'IA doivent prendre des décisions difficiles concernant la responsabilité de la supervision des problèmes éthiques liés à l'IA, la définition d'une norme éthique au sein d'une organisation, l'identification des problèmes et, peut-être le plus important, l'opérationnalisation des solutions.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.