top of page
  • Writer's pictureMaxence Longle

Responsabilité en matière d'intelligence artificielle


Pour certains, l'intelligence artificielle (IA) est un moyen de sauver le monde ; pour d'autres, c'est une boîte noire à laquelle ils ne peuvent pas se fier. Et pour les amateurs de films de science-fiction, ce terme peut évoquer des pirates informatiques, des robots tueurs et la fin de l'humanité telle que nous la connaissons. Pourtant, à la base, l'IA désigne simplement la branche de l'informatique qui s'efforce de comprendre et de reproduire l'intelligence des machines.


Comme tout progrès significatif en matière de science et de technologie, l'IA promet des avantages considérables. Les algorithmes d'IA peuvent surveiller les populations animales, détecter des tumeurs dans les poumons, réduire les coûts opérationnels des entreprises, rendre les villes plus intelligentes, nous aider à prendre des décisions de gestion, et modéliser et planifier des scénarios futurs.


Comme pour toute technologie, les avantages ne vont pas sans les risques. Par exemple, les machines intelligentes pourraient perturber le marché du travail par une automatisation excessive, influencer la politique en diffusant de fausses informations, exacerber les inégalités sociales et violer notre vie privée. Entre les mains de la mauvaise personne, un agent d'IA pourrait être programmé pour faire quelque chose de destructeur. Et si les systèmes d'IA ne se transforment pas de sitôt en robots conscients et tueurs d'êtres humains comme ceux de Matrix ou de Terminator, ils pourraient très bien commencer à s'écarter des objectifs que les humains avaient fixés au départ, surtout si les personnes qui mettent en œuvre ces systèmes ne comprennent pas les risques et la portée limitée de l'IA.


Par exemple, le fait d'introduire des données biaisées dans un algorithme d'IA ou de ne pas tenir compte de toutes les implications éthiques d'un système peut rendre un modèle bien intentionné très destructeur. L'outil d'IA d'embauche d'Amazon était discriminatoire à l'égard des femmes parce qu'il avait été formé à partir de CV essentiellement masculins ; Microsoft a utilisé Twitter pour former un chatbot appelé Tay, dont les déclarations sont rapidement devenues racistes et incendiaires; et récemment, des chercheurs en IA se sont élevés contre un logiciel de prédiction de la criminalité construit à partir d'algorithmes de reconnaissance faciale à caractère raciste.


C'est à nous, les humains, de minimiser ces risques. C'est là qu'intervient l'IA responsable. Comment pouvons-nous profiter des avantages de l'IA tout en tenant compte des préoccupations concernant l'humanité elle-même, le chômage, la répartition des richesses et les questions juridiques et de sécurité ? L'IA responsable présente un cadre à cet effet, garantissant que les technologies d'IA sont utilisées de manière transparente, éthique et responsable.


La Déclaration de Montréal pour un développement responsable de l'IA établit un cadre éthique pour le développement de l'IA afin de s'assurer que chacun bénéficie de la révolution de l'IA. La Déclaration est destinée à être utilisée par les organisations, les individus et les représentants politiques qui construisent des systèmes d'IA ou qui réfléchissent à leurs implications. Les praticiens de l'IA doivent suivre dix principes :


- contribuer à améliorer le bien-être de tous les êtres sensibles ;


- respecter l'autonomie des personnes ;


- protéger la vie privée ;


- favoriser la solidarité entre les personnes ;


- être soumis à un contrôle démocratique ;


- contribuer à une société plus équitable ;


- maintenir la diversité sociale et culturelle ;


- faire preuve de prudence et éviter les conséquences négatives ;


- donner le pouvoir de décision à des êtres humains plutôt qu'à des machines ; et


- assurer la durabilité écologique.


En substance, la Déclaration de Montréal propose, comme solution pour contrôler l'IA, une recette pour rendre les humains plus responsables.


Whale Seeker se conforme à la Déclaration de Montréal et valorise le respect, la transparence et l'utilisation éthique de l'IA. Nous préservons la confidentialité des informations relatives à nos clients, nous ne soutenons pas l'utilisation de notre travail à des fins telles que la chasse à la baleine et la pêche illégale, et nous soutenons un lieu de travail inclusif. Nous nous engageons également à créer un apprentissage automatique explicable et interprétable pour les clients afin qu'ils puissent avoir confiance dans les décisions qu'ils prennent et comprendre les modèles d'IA qu'ils utilisent, plutôt que de se fier à un modèle de boîte noire basé sur des données incorrectes ou biaisées. Nous pensons que l'IA peut et doit être utilisée à bon escient, et que pour ce faire, les praticiens de l'IA comme nous doivent faire preuve de responsabilité et d'engagement.

Comments


bottom of page