«Nous sommes entrés dans une ère où la connaissance n’est plus seulement produite et transmise par l’humain, mais coproduite et véhiculée par des systèmes algorithmiques intelligents.» Lors d’une leçon inaugurale donnée lundi 29 décembre 2025 à la Faculté des sciences juridiques, économiques et sociales (FSJES) de Fès, le Pr Radouane Mrabet (Université Mohammed-V de Rabat) a appelé le monde académique marocain à penser l’intelligence artificielle non comme un gadget, mais comme une transformation de fond de la méthodologie et de l’éthique de la recherche. «La question n’est plus de savoir si l’IA transforme la formation et la recherche, mais comment et à quelles conditions», a-t-il relevé.
Intitulée «L’ère du savoir augmenté : comment l’IA redéfinit la méthodologie et l’éthique de la recherche scientifique, les sciences juridiques comme exemple», l’intervention de M. Mrabet a défendu le concept de «savoir augmenté». Pour lui, «il ne s’agit pas de remplacer le scientifique, mais d’augmenter ses capacités de recherche, d’analyse et de production», l’IA jouant à la fois le rôle d’assistant pédagogique et d’assistant de recherche. Le Pr Mrabet a toutefois mis en garde contre une hausse de productivité qui ne serait pas accompagnée d’un cadre clair, au risque de multiplier les usages sans contrôle.
Dans un diagnostic consacré au Maroc, Pr Mrabet a pointé le contraste entre «discours ambitieux» et contraintes structurelles : volonté affichée, mais absence de réglementation globale ou sectorielle, faibles financements dédiés et nécessité de passer à des actions concrètes sur le terrain. Dans l’enseignement supérieur, a-t-il ajouté, l’intégration de l’IA reste inégale selon les établissements et les filières, avec «quelques îlots d’innovation» et un impératif : éviter une nouvelle fracture numérique liée à l’IA. L’enjeu, selon lui, est de permettre aux chercheurs d’utiliser ces outils non seulement pour accélérer, mais pour améliorer «la qualité et l’originalité» des travaux, particulièrement dans les sciences juridiques.
Pour objectiver le phénomène, le conférencier s’est appuyé sur une étude d’Elsevier publiée en 2025 («Researcher of the Future - A Confidence in Research report»), fondée sur un sondage en ligne par invitation réalisé en août-septembre 2025 auprès de 3.234 chercheurs et responsables de recherche, dans 113 pays. Le rapport met en évidence une adoption rapide : 58% des répondants disent avoir déjà utilisé des outils d’IA dans leurs travaux, contre 37% en 2024. Les usages les plus fréquents concernent la veille et la synthèse : 61% déclarent recourir à l’IA pour «trouver et résumer les recherches les plus récentes» et 51% pour effectuer des revues de littérature.
Les chercheurs interrogés se disent majoritairement optimistes sur les gains d’efficacité : 58% affirment que l’IA leur fait déjà gagner du temps, et 69% s’attendent à en gagner davantage dans les deux à trois prochaines années. Une majorité (61%) estime aussi que l’IA pourrait devenir une «force créatrice» à l’origine de nouvelles connaissances sur le même horizon. Mais cet optimisme cohabite avec un sentiment d’impréparation : 45% se jugent insuffisamment formés et seuls 32% estiment la gouvernance de l’IA «bonne» dans leur institution, selon ce rapport. Les répondants citent notamment la transparence comme condition de confiance, par exemple lorsqu’une IA cite automatiquement ses références (59%) ou s’appuie sur des données d’entraînement intégrant la littérature scientifique la plus récente (55%).
La leçon a également proposé une mise au point sur les principaux types d’IA (symbolique, prédictive/analytique, recommandation, perception, autonome/agentielle et générative) en soulignant l’irruption récente de l’IA générative, capable de produire du texte, de l’image, du son ou du code. Pr Mrabet a passé en revue plusieurs outils spécialisés dans la recherche (Elicit, Scite, Consensus, SciSpace, Writefull, Paperpal) et l’émergence d’outils orientés droit, y compris en langue arabe, destinés à structurer de nouveaux réflexes documentaires. Une démonstration avec une IA de type ChatGPT a notamment insisté sur les limites : demandes de bibliographies, prétention à connaître «tous» les textes, risque «d’inventer» des références, etc. Autant d’exemples visant à rappeler que l’outil peut assister sans garantir la vérité ni l’exhaustivité.
Sur le terrain de l’éthique, Pr Mrabet a averti que l’accélération de la production scientifique peut entraîner une standardisation et une uniformisation des raisonnements, avec une perte de diversité doctrinale, et une multiplication d’usages non régulés (résumés, traductions, analyses, rédaction). Il a défendu une éthique «non pas défensive, mais architecturale», fondée sur quatre exigences : responsabilité («l’IA n’est jamais le responsable, le chercheur oui»), transparence, traçabilité (version du modèle, prompts, données, sorties, modifications) et reproductibilité. Dans cette logique, il a plaidé pour des règles de divulgation graduées : obligatoires lorsque l’IA influe substantiellement sur l’analyse, les données ou la rédaction ; facultatives pour des corrections linguistiques, la recherche ou la vérification de références, ou la génération d’exemples ; inutiles pour de simples suggestions de mots améliorant la lisibilité. Il a aussi rappelé que les «résultats de l’IA» ne constituaient pas des références bibliographiques, que les droits de propriété intellectuelle d’un texte produit avec l’aide de l’IA n’appartiennent à «aucune personne», et qu’un travail peut être contesté en cas de non-déclaration.
Quant au rôle des universités marocaines, Pr Mrabet a insisté sur la nécessité d’adopter une posture d’«acteur» plutôt que d’«observateur» : charte institutionnelle claire, comité d’éthique IA aux décisions contraignantes, standardisation des déclarations d’usage et, à terme, développement d’une IA nationale entraînée sur des corpus juridiques marocains. En conclusion, il a résumé l’équation en une formule : l’IA peut être un assistant de recherche, «oui, mais» à condition de construire «l’ère du savoir augmenté» avec une méthode renouvelée, une éthique renforcée et une créativité préservée, plutôt qu’avec une simple course à la vitesse.
Intitulée «L’ère du savoir augmenté : comment l’IA redéfinit la méthodologie et l’éthique de la recherche scientifique, les sciences juridiques comme exemple», l’intervention de M. Mrabet a défendu le concept de «savoir augmenté». Pour lui, «il ne s’agit pas de remplacer le scientifique, mais d’augmenter ses capacités de recherche, d’analyse et de production», l’IA jouant à la fois le rôle d’assistant pédagogique et d’assistant de recherche. Le Pr Mrabet a toutefois mis en garde contre une hausse de productivité qui ne serait pas accompagnée d’un cadre clair, au risque de multiplier les usages sans contrôle.
Dans un diagnostic consacré au Maroc, Pr Mrabet a pointé le contraste entre «discours ambitieux» et contraintes structurelles : volonté affichée, mais absence de réglementation globale ou sectorielle, faibles financements dédiés et nécessité de passer à des actions concrètes sur le terrain. Dans l’enseignement supérieur, a-t-il ajouté, l’intégration de l’IA reste inégale selon les établissements et les filières, avec «quelques îlots d’innovation» et un impératif : éviter une nouvelle fracture numérique liée à l’IA. L’enjeu, selon lui, est de permettre aux chercheurs d’utiliser ces outils non seulement pour accélérer, mais pour améliorer «la qualité et l’originalité» des travaux, particulièrement dans les sciences juridiques.
Pour objectiver le phénomène, le conférencier s’est appuyé sur une étude d’Elsevier publiée en 2025 («Researcher of the Future - A Confidence in Research report»), fondée sur un sondage en ligne par invitation réalisé en août-septembre 2025 auprès de 3.234 chercheurs et responsables de recherche, dans 113 pays. Le rapport met en évidence une adoption rapide : 58% des répondants disent avoir déjà utilisé des outils d’IA dans leurs travaux, contre 37% en 2024. Les usages les plus fréquents concernent la veille et la synthèse : 61% déclarent recourir à l’IA pour «trouver et résumer les recherches les plus récentes» et 51% pour effectuer des revues de littérature.
Les chercheurs interrogés se disent majoritairement optimistes sur les gains d’efficacité : 58% affirment que l’IA leur fait déjà gagner du temps, et 69% s’attendent à en gagner davantage dans les deux à trois prochaines années. Une majorité (61%) estime aussi que l’IA pourrait devenir une «force créatrice» à l’origine de nouvelles connaissances sur le même horizon. Mais cet optimisme cohabite avec un sentiment d’impréparation : 45% se jugent insuffisamment formés et seuls 32% estiment la gouvernance de l’IA «bonne» dans leur institution, selon ce rapport. Les répondants citent notamment la transparence comme condition de confiance, par exemple lorsqu’une IA cite automatiquement ses références (59%) ou s’appuie sur des données d’entraînement intégrant la littérature scientifique la plus récente (55%).
La leçon a également proposé une mise au point sur les principaux types d’IA (symbolique, prédictive/analytique, recommandation, perception, autonome/agentielle et générative) en soulignant l’irruption récente de l’IA générative, capable de produire du texte, de l’image, du son ou du code. Pr Mrabet a passé en revue plusieurs outils spécialisés dans la recherche (Elicit, Scite, Consensus, SciSpace, Writefull, Paperpal) et l’émergence d’outils orientés droit, y compris en langue arabe, destinés à structurer de nouveaux réflexes documentaires. Une démonstration avec une IA de type ChatGPT a notamment insisté sur les limites : demandes de bibliographies, prétention à connaître «tous» les textes, risque «d’inventer» des références, etc. Autant d’exemples visant à rappeler que l’outil peut assister sans garantir la vérité ni l’exhaustivité.
Sur le terrain de l’éthique, Pr Mrabet a averti que l’accélération de la production scientifique peut entraîner une standardisation et une uniformisation des raisonnements, avec une perte de diversité doctrinale, et une multiplication d’usages non régulés (résumés, traductions, analyses, rédaction). Il a défendu une éthique «non pas défensive, mais architecturale», fondée sur quatre exigences : responsabilité («l’IA n’est jamais le responsable, le chercheur oui»), transparence, traçabilité (version du modèle, prompts, données, sorties, modifications) et reproductibilité. Dans cette logique, il a plaidé pour des règles de divulgation graduées : obligatoires lorsque l’IA influe substantiellement sur l’analyse, les données ou la rédaction ; facultatives pour des corrections linguistiques, la recherche ou la vérification de références, ou la génération d’exemples ; inutiles pour de simples suggestions de mots améliorant la lisibilité. Il a aussi rappelé que les «résultats de l’IA» ne constituaient pas des références bibliographiques, que les droits de propriété intellectuelle d’un texte produit avec l’aide de l’IA n’appartiennent à «aucune personne», et qu’un travail peut être contesté en cas de non-déclaration.
Quant au rôle des universités marocaines, Pr Mrabet a insisté sur la nécessité d’adopter une posture d’«acteur» plutôt que d’«observateur» : charte institutionnelle claire, comité d’éthique IA aux décisions contraignantes, standardisation des déclarations d’usage et, à terme, développement d’une IA nationale entraînée sur des corpus juridiques marocains. En conclusion, il a résumé l’équation en une formule : l’IA peut être un assistant de recherche, «oui, mais» à condition de construire «l’ère du savoir augmenté» avec une méthode renouvelée, une éthique renforcée et une créativité préservée, plutôt qu’avec une simple course à la vitesse.
