Les intelligences artificielles (IA) font beaucoup parler d’elles en ce moment. Leur utilisation de plus en plus croissante suscite plusieurs interrogations. Comment en faire bon usage ? Doit-on s’en méfier ?... Pour répondre à ces questions, Microsoft a mené des études auprès des professionnels utilisant son intelligence artificielle «Copilot» pour comprendre comment récolter les fruits des IA sans en craindre les conséquences.
«Il est indéniable que notre façon de travailler, d’innover et de créer a été profondément modifiée par les avancées récentes de l’IA. À tel point qu’un avenir où chaque personne dispose d’un “Copilot IA” pour toutes ses activités est maintenant envisageable. Ces assistants virtuels accroîtront le travail des individus en libérant du temps pour plus de créativité, d’imagination et d’ingéniosité humaine», indique Salima Amira, directrice générale de Microsoft Maroc, dans une analyse de l’étude. «L’étude de Microsoft offre une vision de la manière dont l’IA accompagnera les utilisateurs plutôt que de prendre en charge leur travail, avec 70% des répondants déclarant être plus productifs et 77% affirmant ne pas vouloir se passer de leur assistant IA», ajoute-t-elle.
Il s’agit tout d’abord de l’équité. «S’assurer que les systèmes d’IA traitent tout le monde de manière équitable et sans aucun parti pris commence par notre compréhension des limites des prédictions et des recommandations de l’IA. Bien que l’IA puisse fournir des suggestions utiles, les décisions finales doivent être prises par une personne responsable. De la même manière, les développeurs qui conçoivent et construisent ces systèmes d’IA doivent être conscients des effets des biais sur la solution finale. Ils pourront ensuite atténuer ces biais en utilisant divers ensembles de données pour entraîner des modèles d’IA afin qu’ils puissent apprendre et évoluer sans développer de préjugés», recommandent les experts de Microsoft.
Le deuxième principe est celui de la fiabilité et la sûreté. On précise ainsi qu’il est essentiel que les systèmes d’IA fonctionnent de manière fiable, sûre et cohérente, non seulement dans des circonstances normales, mais aussi lors de situations inattendues. «Le comportement final de l’IA est généralement déterminé par l’éventail de circonstances que les développeurs anticipent lors de la conception et des tests. Il est donc essentiel pour les développeurs de s’assurer que l’IA peut gérer même des situations imprévues en utilisant des tests rigoureux», indique la même source.
Le troisième principe concerne la confidentialité et sécurité, d’autant que l’IA devient de plus en plus omniprésente. «La protection de la vie privée et la sécurisation des informations personnelles et professionnelles deviennent de plus en plus importantes et complexes. Il est essentiel de s’assurer que les systèmes d’IA sont conformes aux lois sur la protection de la vie privée qui ont des exigences spécifiques concernant la façon dont les données sont collectées, utilisées et stockées», exhorte Microsoft.
L’entreprise insiste également sur l’importance de la capacité de l’IA, à intégrer et répondre à un large éventail de besoins et d’expériences humaines. «L’IA a un énorme potentiel pour améliorer l’accès à un large éventail de services essentiels tels que l’éducation et les soins de santé. Mais pour réaliser ce potentiel, les développeurs doivent adopter des pratiques de conception inclusives, en abordant les aspects de l’environnement du produit qui pourraient exclure involontairement certaines personnes», expliquent les experts. Ces derniers mettent aussi l’accent sur l’importance de la transparence et la responsabilité des systèmes d’IA.
Les experts encouragent les organisations à élaborer des normes de responsabilité basées sur les standards de l’industrie et à envisager la création d’un système d’examen interne spécialisé qui fournira des conseils aux plus hauts niveaux de l’entreprise sur les pratiques à adopter pour résoudre les éventuelles préoccupations liées à l’IA.
«Il est indéniable que notre façon de travailler, d’innover et de créer a été profondément modifiée par les avancées récentes de l’IA. À tel point qu’un avenir où chaque personne dispose d’un “Copilot IA” pour toutes ses activités est maintenant envisageable. Ces assistants virtuels accroîtront le travail des individus en libérant du temps pour plus de créativité, d’imagination et d’ingéniosité humaine», indique Salima Amira, directrice générale de Microsoft Maroc, dans une analyse de l’étude. «L’étude de Microsoft offre une vision de la manière dont l’IA accompagnera les utilisateurs plutôt que de prendre en charge leur travail, avec 70% des répondants déclarant être plus productifs et 77% affirmant ne pas vouloir se passer de leur assistant IA», ajoute-t-elle.
Les impacts de l'IA sur l'économie et la société
La directrice générale de Microsoft Maroc rappelle, par ailleurs, que l’IA permet d’ores et déjà des progrès plus rapides et plus profonds dans presque tous les domaines de l’activité humaine. Elle souligne aussi que des études ont montré que l’IA pourrait développer l’économie en Afrique jusqu’à 50% du PIB actuel d’ici 2030 si le continent pouvait capturer seulement 10% du marché mondial de l’IA. «Mais comme pour d’autres grandes innovations technologiques dans le passé, l’utilisation de l’IA aura des implications significatives pour la société. C’est en grande partie la raison pour laquelle Microsoft a étendu son “AI for Good Lab” en Afrique, non seulement pour stimuler l’investissement dans les compétences et les capacités locales en matière d’IA, mais aussi pour œuvrer en faveur d’un meilleur accès et d’une plus grande inclusion de l’IA par le biais du Conseil africain d’innovation en IA», affirme l’experte. Et d’insister sur le fait que «les organisations à travers l’Afrique devraient s’assurer de créer des systèmes d’IA qui génèrent un impact positif pour tous en établissant notamment des principes directeurs».Six principes pour guider le développement de l’IA
La directrice de Microsoft Maroc souligne que les experts du géant de l’informatique ont formulé six principes qui devraient guider le développement de l’IA.Il s’agit tout d’abord de l’équité. «S’assurer que les systèmes d’IA traitent tout le monde de manière équitable et sans aucun parti pris commence par notre compréhension des limites des prédictions et des recommandations de l’IA. Bien que l’IA puisse fournir des suggestions utiles, les décisions finales doivent être prises par une personne responsable. De la même manière, les développeurs qui conçoivent et construisent ces systèmes d’IA doivent être conscients des effets des biais sur la solution finale. Ils pourront ensuite atténuer ces biais en utilisant divers ensembles de données pour entraîner des modèles d’IA afin qu’ils puissent apprendre et évoluer sans développer de préjugés», recommandent les experts de Microsoft.
Le deuxième principe est celui de la fiabilité et la sûreté. On précise ainsi qu’il est essentiel que les systèmes d’IA fonctionnent de manière fiable, sûre et cohérente, non seulement dans des circonstances normales, mais aussi lors de situations inattendues. «Le comportement final de l’IA est généralement déterminé par l’éventail de circonstances que les développeurs anticipent lors de la conception et des tests. Il est donc essentiel pour les développeurs de s’assurer que l’IA peut gérer même des situations imprévues en utilisant des tests rigoureux», indique la même source.
Le troisième principe concerne la confidentialité et sécurité, d’autant que l’IA devient de plus en plus omniprésente. «La protection de la vie privée et la sécurisation des informations personnelles et professionnelles deviennent de plus en plus importantes et complexes. Il est essentiel de s’assurer que les systèmes d’IA sont conformes aux lois sur la protection de la vie privée qui ont des exigences spécifiques concernant la façon dont les données sont collectées, utilisées et stockées», exhorte Microsoft.
L’entreprise insiste également sur l’importance de la capacité de l’IA, à intégrer et répondre à un large éventail de besoins et d’expériences humaines. «L’IA a un énorme potentiel pour améliorer l’accès à un large éventail de services essentiels tels que l’éducation et les soins de santé. Mais pour réaliser ce potentiel, les développeurs doivent adopter des pratiques de conception inclusives, en abordant les aspects de l’environnement du produit qui pourraient exclure involontairement certaines personnes», expliquent les experts. Ces derniers mettent aussi l’accent sur l’importance de la transparence et la responsabilité des systèmes d’IA.
Les experts encouragent les organisations à élaborer des normes de responsabilité basées sur les standards de l’industrie et à envisager la création d’un système d’examen interne spécialisé qui fournira des conseils aux plus hauts niveaux de l’entreprise sur les pratiques à adopter pour résoudre les éventuelles préoccupations liées à l’IA.