Blog Planview

Votre parcours vers l’agilité métier

L'intelligence artificielle, Vision et tendances

IA éthique et responsable : pour une technologie au service de l'humain

Découvrez ce que les luddites du 19ᵉ siècle ont à nous apprendre sur l'utilisation de l'IA.

Publié le par Richard Sonnenblick
IA éthique et responsable : pour une technologie au service de l'humain

Au début du 19ᵉ siècle, un groupe d'artisans du textile anglais connu sous le nom de luddites s'est lancé dans d'importants mouvements de protestation. Souvent présentés à tort comme anti-technologie, les luddites revendiquaient simplement des salaires équitables et des conditions de travail décentes.  

Ils épargnaient même les fabricants qui continuaient de proposer des salaires décents et de traiter les équipes avec respect après avoir adopté les dernières technologies. En pleine révolution de l'intelligence artificielle, un parallèle troublant se dessine avec l'histoire des luddites.  

En tant que Chief Data Scientist de Planview, je suis convaincu que nous pouvons être pro-technologie en restant résolument pro-humain. L'idée est d'exploiter la puissance de l'IA pour la mettre au service de nos clients.  

Nous pouvons récolter les fruits de l'IA en nous concentrant sur un développement et une utilisation responsables. Une IA éthique repose sur trois principes fondamentaux :
• Garantir l'exactitude et l'impartialité des technologies
• Respecter la vie privée et la propriété intellectuelle avec une utilisation éthique des données
• Exploiter l'IA non pas pour remplacer mais pour soutenir les équipes 

Garantir l'exactitude et l'impartialité des technologies 

Les biais et les imprécisions des modèles d'IA peuvent avoir des conséquences alarmantes, comme des décisions stratégiques erronées ou des traitements injustes. Il est de notre responsabilité de technologues de limiter ces risques.  

Les technologies de l'IA doivent être précises et impartiales pour atteindre l'objectif visé et gagner la confiance du public. 

Chez Planview, nous garantissons l'exactitude et l'impartialité des technologies en identifiant et en corrigeant les biais. Nous procédons à cette identification au travers de tests complets, à la manière de l'assurance qualité dans le cadre du développement de logiciels traditionnel. Nous testons les modèles d'IA à l'aide de jeux de données (datasets) diversifiés qui reflètent la complexité du monde réel. Nous veillons à ce que ces modèles fonctionnent de manière précise et équitable pour une multitude de scénarios et de contextes démographiques. 

À nos yeux, la correction de biais n'est pas un effort ponctuel. Il s'agit d'un processus itératif qui commence par une transparence totale autour de la conception, de l'objectif et des limites du système d'IA. L'interprétabilité du modèle joue un rôle crucial dans ce processus. La capacité d'expliquer l'IA nous permet de savoir comment un modèle est parvenu à une conclusion spécifique, et donc d'identifier et de rectifier les biais dans le processus de prise de décision. 

Respecter la vie privée et la propriété intellectuelle avec une utilisation éthique des données 

Les données sont le moteur de l'IA. Cependant, leur utilisation doit respecter les droits des individus et des organisations. Pour nous, la protection de la vie privée et les droits de propriété intellectuelle sont une priorité absolue. 

Nous travaillons minutieusement pour nous assurer que nos données sont compilées de manière responsable. Concrètement, nous anonymisons les données personnelles, nous obtenons les consentements nécessaires et nous respectons strictement les réglementations internationales comme le RGPD.  

Par ailleurs, nous utilisons des algorithmes de machine learning au sein de nos propres ressources informatiques afin de protéger les données sensibles. Dans le contexte de l'IA générative, où les modèles gérés par des tiers comme Microsoft et OpenAI offrent les meilleures performances du marché, nous réalisons un audit minutieux des pratiques de ces tiers en matière de confidentialité et de sécurité avant d'exploiter leurs solutions.  

En adhérant à ces principes, nous plaçons le respect et la confiance au cœur de notre utilisation de l'IA. 

Soutenir les équipes et non les remplacer 

Le potentiel de l'IA est impressionnant. En tant que technologues, nous devons cependant veiller à ce que l'intelligence artificielle reste au service de l'humanité.  

Nos technologies sont conçues pour :
• Traiter les tâches répétitives et sans intérêt
• Booster la productivité
• Permettre à nos équipes et à nos clients de se concentrer sur les activités plus créatives, stratégiques et intrinsèquement humaines, qui sont le socle de toutes les entreprises performantes et durables 

Dans la gestion stratégique de portefeuilles, par exemple, l'IA peut rationaliser les processus (comme la création de plans et de feuilles de temps), prévoir les calendriers des projets et optimiser les ressources. L'IA peut également analyser de grandes quantités de données en un rien de temps et fournir des insights qui aident les managers à prendre des décisions plus éclairées.  

Cependant, l'IA ne peut pas remplacer le leadership, la créativité et la touche humaine que les Product Owners et les Project Managers apportent aux équipes et aux projets. Nous concevons nos outils d'IA pour soutenir nos utilisateurs. L'idée n'est pas de rendre les activités humaines obsolètes, mais de faciliter le travail à nos équipes et de booster la productivité. 

Pour un paysage technologique responsable, éthique et inclusif 

À l'instar des luddites du 19ᵉ siècle, nous voulons un environnement technologique responsable, éthique et inclusif qui améliore la situation des personnes.  

Nos technologies d'IA sont précises et impartiales, elles respectent la vie privée et la propriété intellectuelle, et elles visent la libération des capacités humaines plutôt que leur remplacement. Notre écosystème digital fait écho à l'esprit des conditions de travail équitables défendues par les luddites. 

Tandis que notre entreprise mise résolument sur l'IA, nous nous inspirons des leçons des luddites.

Les luddites n'étaient pas technophobes. Ils protégeaient leur métier, leur gagne-pain et leur dignité. À l'ère de l'IA, notre responsabilité de technologues est de préserver notre éthique, nos utilisateurs et notre société. 

Nous sommes déterminés à engager des discussions sérieuses autour des impacts de l'IA sur nos activités et sur la société. Nous sommes à l'écoute de vos commentaires à mesure que nous intégrons une IA responsable à la plateforme Planview

Articles similaires

Rédaction du contenu Dr. Richard Sonnenblick Chief Data Scientist

Chief Data Scientist de Planview, Richard Sonnenblick possède une solide expérience acquise auprès d'organisations majeures des secteurs pharmaceutiques et des sciences de la vie. Fort de son expertise, il a développé d'excellents processus de priorisation et de revue de portefeuilles, systèmes de scoring, et méthodes d'évaluation et de prévision financières pour améliorer à la fois les pronostics produits et l'analyse de portefeuilles. Richard Sonnenblick est titulaire d'un doctorat et d'un master en ingénierie et politiques publiques de l'université Carnegie Mellon, et d'une licence en physique de l'université de Californie à Santa Cruz.