• français
  •   Home
  • Faculté des arts et des sciences
  • Faculté des arts et des sciences – Département de sociologie
  • Faculté des arts et des sciences – Département de sociologie - Thèses et mémoires

handle

L'intelligence artificielle : une certaine intelligence du social

Thumbnail

  • réseau
  • intelligence artificielle
  • mémoire sociale
  • modèle concret de connaissance
  • machine Learning
  • apprentissage machine
  • modèle
  • économie du partage
  • idéologie
  • Artificial intelligence
  • Social memory
  • Concrete model of knowledge
  • Sharing economy
  • Sociology - General / Sociologie - Généralités (UMI : 0626)

Abstract(s)

Collections.

  • Thèses et mémoires électroniques de l’Université de Montréal [23739]
  • Faculté des arts et des sciences – Département de sociologie - Thèses et mémoires [483]

This document disseminated on Papyrus is the exclusive property of the copyright holders and is protected by the Copyright Act (R.S.C. 1985, c. C-42). It may be used for fair dealing and non-commercial purposes, for private study or research, criticism and review as provided by law. For any other use, written authorization from the copyright holders is required.

Éthique publique

Revue internationale d’éthique sociétale et gouvernementale

Accueil Numéros vol. 24, n° 2 Zone libre Enjeux éthiques et critiques de l...

Enjeux éthiques et critiques de l’intelligence artificielle en enseignement supérieur

Si l’intelligence artificielle (IA) suscite un intérêt certain en enseignement supérieur, la réflexion éthique et critique sur les enjeux qu’elle soulève dans ce contexte particulier est moins avancée, de sorte qu’« application technique » et « réflexion éthique et critique » sont peu arrimées présentement. Cet article peut être compris comme un premier pas vers une meilleure articulation de ces notions, en permettant d’amorcer la réflexion sur des enjeux éthiques et critiques de l’IA dans le domaine d’étude et de pratique de l’enseignement supérieur, en mobilisant un point de vue interdisciplinaire. Nous illustrons cette démarche en regroupant ces enjeux sous trois pôles : la conception, les données et l’usage. Nous identifions par ailleurs des pistes de solution pour remédier à ces enjeux, tout en gardant en tête que ces solutions suscitent elles-mêmes d’autres enjeux.

While artificial intelligence (AI) is of great interest in higher education, ethical and critical reflection on the issues it raises in this context is less advanced, so that “technical application” and “ethical and critical reflection” are poorly aligned. This article can be understood as a first step towards a better articulation of these notions, by initiating reflection on ethical and critical issues in the field of practice and study of higher education, from an interdisciplinary point of view. We illustrate this approach by grouping these issues under three clusters: design, data and use. We also identify possible solutions to these issues, keeping in mind that these solutions themselves raise other issues.

Entrées d’index

Mots-clés : , keywords: , notes de l’auteur.

Dans la mesure où cet article est le fruit d’une collaboration étroite entre les deux auteurs, leurs noms ont été ordonnancés sur le principe alphabétique des noms de famille plutôt que sur le principe d’engagement des auteurs dans la rédaction de l’article.

Texte intégral

Les auteurs tiennent à remercier les FRQ Regroupements stratégiques pour le financement accordé à Mme Marceau en lien avec la thématique « Justice et changements », accordé au Centre de droit public (CRDP) de l’Université de Montréal. Grâce à ce financement, Mme Marceau a pu bénéficier du temps nécessaire à la rédaction de cet article.

1 Voir https://observatoire-ia.ulaval.ca/

2 Voir https://algoralab.ca/fr/lalgora-lab/

  • 3 Dans le cadre de ce texte, l’enseignement supérieur comprend les établissements collégiaux et unive (...)

1 L’éthique de l’intelligence artificielle (IA) suscite un intérêt grandissant, tel qu’en témoignent les divers regroupements scientifiques et projets de recherche mis en œuvre au Québec (voir notamment l’Observatoire international sur les impacts sociétaux de l’IA et du numérique 1 et Algora Lab 2 ). Dans le domaine de l’enseignement supérieur 3 , les enjeux éthiques et critiques que soulève l’IA demeurent toutefois peu documentés (Zawacki-Richter et al ., 2019). Ce constat vaut pour le domaine de l’éducation dans son ensemble (Krutka, Smits et Willhelm, 2021), où la littérature scientifique met plutôt l’accent sur les applications possibles de l’IA en vue d’améliorer l’enseignement, l’apprentissage ou encore la gestion des services éducatifs.

2 Afin de contribuer à une meilleure prise en charge de cette thématique par les sciences de l’éducation, nous proposons une perspective interdisciplinaire qui allie essentiellement deux domaines d’étude auxquels nous sommes affiliés, soit l’éthique, d’une part, et les technologies en éducation, d’autre part. Cette perspective interdisciplinaire nous semble doublement pertinente. Elle permet de doter l’étude des technologies en éducation de fondements théoriques et pratiques issus de l’éthique. Elle permet aussi d’outiller la réflexion éthique avec des cadres d’analyses issus des technologies en éducation, sans lesquels il serait difficile de saisir les dimensions éthiques propres à l’IA en enseignement supérieur. Nous avons récemment éprouvé cette approche interdisciplinaire lors de la rédaction d’une brève chronique intitulée L’intelligence artificielle en éducation : enjeux de justice (Collin et Marceau, 2021). Forts de cette collaboration, nous souhaitons approfondir cette réflexion préliminaire dans le cadre de cet article.

3 Pour ce faire, nous commençons par décrire brièvement l’état de l’IA en enseignement supérieur. Ce tour d’horizon nous permet ensuite de définir ce qu’est un enjeu éthique et critique afin de mieux poser les fondements de notre démarche. Puis, nous cernons quelques enjeux éthiques et critiques de l’IA en enseignement supérieur, en les regroupant sous trois pôles : la conception, les données et l’usage. Ce découpage facilite à la fois la compréhension des enjeux spécifiques à chacun de ces pôles, tout en permettant de mieux attribuer les rôles et responsabilités aux divers acteurs et actrices impliqués. Dans cette optique, nous relèverons en terminant quelques pistes de solution, tout en soulignant leurs limites.

IA en enseignement supérieur : survol des enjeux éthiques et critiques

4 La Déclaration de Montréal pour un développement responsable de l’IA responsable (2018) définit l’IA comme « l’ensemble des techniques qui permettent à une machine de simuler l’intelligence humaine, notamment pour apprendre, prédire, prendre des décisions et percevoir le monde environnant » (Abrassart et al ., 2018 : 19). Programmer un système d’intelligence artificielle (SIA) pour simuler l’intelligence humaine peut s’avérer compliqué, même lorsque la tâche visée semble relativement simple (p. ex., reconnaître visuellement un objet). Pour surmonter ce problème, un système d’intelligence artificielle (SIA) peut faire intervenir l’apprentissage machine, une branche de l’IA dans laquelle un algorithme est programmé pour apprendre par lui-même comment effectuer une tâche, plutôt que d’être programmé pour effectuer ladite tâche (LeCun, 2016). Pour ce faire, le SIA doit être entraîné, c’est-à-dire qu’il doit générer un modèle généralisable sur la base des algorithmes et des données qui lui sont fournis. Au sein de l’apprentissage machine, l’apprentissage profond est une technique computationnelle qui utilise une série de réseaux de neurones artificiels pour permettre à un SIA de générer un modèle optimal par un entraînement de chacun des réseaux de neurones. L’apprentissage machine, et particulièrement l’apprentissage profond, sont à la base des plus récentes avancées de l’IA. Parce qu’ils impliquent une grande quantité de données, une autonomie croissante dans leur traitement (allant jusqu’à l’apprentissage non supervisé) et des conséquences sociales et politiques potentiellement nuisibles, ils génèrent aussi de nouveaux enjeux éthiques et critiques, notamment en éducation. C’est donc principalement sur ce type d’IA que se penche cet article, bien que certains des enjeux mentionnés, notamment ceux de la section « Quelques enjeux éthiques et critiques de conception », soient transversaux à l’IA, voire aux technologies dans leur ensemble.

5 En éducation, l’IA suscite un intérêt croissant depuis une trentaine d’années, intérêt qui s’est accéléré récemment étant donné les avancées techniques et les différents potentiels qu’elles ouvrent pour l’éducation. Pour le cas précis de l’enseignement supérieur, Zawacki-Richter et ses collègues (2019) ont mené une revue systématique de la littérature et identifient quatre applications principales : 1) le profilage et la prédiction (p. ex., admission à un programme d’études, décrochage) ; 2) les systèmes de tutorat intelligent (p. ex., enseignement de contenus pédagogiques, rétroactions) ; 3) la mesure et l’évaluation (p. ex., notation automatique, engagement scolaire) ; 4) les systèmes adaptatifs et personnalisés (p. ex., recommandation et sélection de contenus personnalisés). Ces mêmes auteurs notent que « a stunningly low number of authors, only two out of 146 articles (1.4%), critically reflect upon ethical implications, challenges and risks of applying AI in education » (Zawacki-Richter et al. , 2019 : 10).

6 De cet état de la situation ressortent deux constats. D’une part, l’application de l’IA en enseignement supérieur est nettement plus dynamique que la réflexion éthique et critique sur les enjeux qu’elle soulève, de sorte qu’elle tend à s’en affranchir, alors même que la réflexion éthique et critique a pour but de l’accompagner vers une plus grande acceptabilité éducative. D’autre part, l’enseignement supérieur – et l’éducation en général – semble avoir été moins investi que d’autres secteurs quant à la réflexion sur les enjeux éthiques et critiques de l’IA, alors qu’il n’y a aucune raison de penser qu’il en soit exempt.

7 À titre d’exemple, concernant le profilage et la prédiction, est-il possible d’expliquer les décisions automatisées concernant l’admission ou le refus des étudiantes et des étudiants aux programmes d’étude pour lesquels elles et ils ont postulé ? Des critères sociodémographiques et ethnoculturels sont-ils présents, risquant de renforcer certaines inégalités sociales et éducatives ? De plus, est-il possible pour le personnel administratif de valider ces décisions avant de les communiquer aux étudiantes et étudiants ? Une fois admis, ces dernières et ces derniers peuvent-ils et peuvent-ils être privés d’un service éducatif en fonction d’une prédiction effectuée par l’IA ? Si des prédictions illustrent de faibles chances de réussite dans un programme pour une étudiante ou un étudiant, est-ce acceptable de l’empêcher de poursuivre dans cette voie ? En ce sens, les prédictions peuvent-elles porter atteinte à la liberté et à l’auto-détermination des étudiantes et des étudiants ? Des questions du même ordre se posent au sujet des systèmes de tutorat intelligent, de l’évaluation, ou encore, des systèmes adaptatifs et personnalisés. En bref, force est de constater que l’introduction de l’IA en enseignement supérieur pose des enjeux éthiques et critiques de taille auxquels il faut s’attarder.

8 Face à ces questionnements actuellement peu soulevés, il nous semble que le domaine d’étude des technologies en éducation, en raison de sa connaissance spécialisée de l’enseignement supérieur, a une place à prendre et gagne à investir davantage cet objet d’étude, en empruntant les acquis d’autres disciplines des sciences humaines et sociales et en les appliquant aux singularités des technologies en éducation. Le présent article peut être compris comme un premier pas dans cette direction, en permettant d’amorcer la réflexion sur des enjeux éthiques et critiques dans un domaine de pratique et d’étude – l’enseignement supérieur – qui s’y est peu intéressé jusqu’à présent, en mobilisant un point de vue interdisciplinaire. Nous illustrons cette démarche en l’appliquant à certains enjeux éthiques et critiques de l’IA en enseignement supérieur regroupés sous trois pôles : la conception, les données et l’usage.

Enjeux éthiques et critiques : définition et complémentarité

9 Avant d’aborder plus directement les enjeux éthiques et critiques que pose l’IA en enseignement supérieur, nous proposons de définir succinctement ce que l’on entend par enjeux éthiques et critiques. On trouve plusieurs définitions possibles de l’éthique et de la compétence éthique dans la littérature (Marceau, 2015). Toutefois, peu s’attardent plus spécifiquement à la définition de ce qu’est un enjeu éthique à proprement parler.

10 L’éthique s’entend d’abord comme une herméneutique, soit une « illumination réciproque de notre médiation sur l’excellence en humanité et des décisions singulières que nous prenons » (Malherbe, 2001 : 16). Bien que divers auteurs aient fourni des définitions variées sur l’éthique (Lacroix et al ., 2006), nous retenons ici la définition de Jean-François Malherbe, puisqu’elle entend l’éthique comme une quête de l’excellence en humanité et l’envisage dans une perspective appliquée et singulière, ce qui nous semble tout indiqué lorsqu’il est question de développement responsable de SIA. En effet, le développement des SIA entraîne des réflexions sur la nature même de l’intelligence humaine (puisqu’il s’agit de la reproduire) et a des risques de dérives importants. Il appert donc d’aborder ces questions à la fois dans une quête de l’excellence en humanité et de manière appliquée. Contrairement à une perception populaire, l’éthique ne tient pas lieu d’obligation, ni d’un comportement prédéfini ou d’une conception du bien prédéterminée qu’il faut appliquer. Elle se présente plutôt comme « une réflexion sur nos pratiques individuelles et sociales et sur les valeurs qu’elles actualisent menant à leur évaluation à travers l’exercice d’un jugement pratique et à des actions conséquentes (Lacroix, Marchildon et Bégin, 2017 : 37-46) » (Marchildon, 2017, 2 e §). Comme l’affirment Lacroix et Marceau :

[L]’éthique comporte une visée heuristique qui permet de s’interroger sur le « bien », dans des circonstances bien précises, visée qui n’est pas celle historiquement attribuée à la morale. Selon cette dernière compréhension de l’éthique, il s’agit de s’interroger, à partir des valeurs, des normes, des principes, des idéaux propres à une situation pour lui donner sens et identifier le « bon » comportement devant être adopté dans le « monde vécu », référant ainsi à notre nouveau rapport à la norme (2019 : 192).

11 C’est ainsi que l’éthique constitue pour certains une réflexion axiologique sur l’action (Genard, 2000 ; Raz, 2009, cités dans Lacroix et Marceau, 2019 : 192).

4 Voir https://www.ethique.gouv.qc.ca/fr/ethique/quelques-notions-d-ethique/l-ethique-appliquee/

12 Depuis les années 1960, certains enjeux éthiques liés à des situations concrètes, qu’elles soient liées à de nouveaux développements humains (p. ex., le clonage) ou à des conséquences de l’action humaine (p. ex., l’environnement) ont stimulé le développement de l’éthique appliquée (Commission de l’éthique en science et technologie 4 ). Puisqu’elle est située, l’éthique appliquée s’appuie sur une documentation factuelle des situations à l’œuvre à partir de laquelle fonder la démarche éthique. Elle permet donc de réfléchir à partir de situations ou encore d’innovations (Verchère, Legault et Patenaude, 2021). C’est notamment le cas dans le contexte de l’IA en éducation.

5 Voir https://www.ethique.gouv.qc.ca/fr/ethique/quelques-notions-d-ethique/les-enjeux-ethiques/

13 En se référant à la Commission de l’éthique en science et technologie, un enjeu éthique apparaît « lorsqu’une valeur ou un principe moral est mis en jeu dans une question ou une situation 5  ». Il est fréquent que les questions ou situations générant un enjeu éthique impliquent plusieurs valeurs ou principes qui entrent en conflit. En outre, un enjeu implique une activité de discernement – et de délibération, si elle est collective – entre différents principes ou valeurs, avec pour finalité d’orienter une situation de façon à s’assurer qu’elle soit le plus éthiquement acceptable possible. Nous dirons donc qu’un enjeu éthique est une situation problématique ou une préoccupation concrète qui se pose sur le plan éthique et nécessite une démarche heuristique de recherche du bien, du bon, essentiellement à partir de valeurs.

14 La résolution d’un enjeu éthique nécessite le déploiement d’une compétence éthique pour déterminer l’action à engager, à partir des valeurs et d’autres repères. Mais encore faut-il que le déploiement de cette compétence éthique soit possible. Allison Marchildon souligne à cet effet que l’exercice de la compétence éthique est tributaire des possibles, en fonction de structures existantes et du « pouvoir réel » des personnes pour agir :

[S]’intéresser à la compétence éthique impliquera nécessairement de s’intéresser à la question du pouvoir et à la façon dont s’exerceront les pouvoirs en situation – des pouvoirs sur ou des pouvoirs avec – puisque cela aura une influence déterminante sur le pouvoir de la personne de déployer (ou non) sa compétence de façon effective en situation (Marchildon, 2017 : 12).

15 Ainsi, l’action à engager sur le plan éthique n’est pas totalement automne des structures de pouvoirs préexistantes et sous-jacentes à l’action. D’autres questions relatives aux milieux sociaux ou aux structures organisationnelles, par exemple, viendront moduler ou altérer la capacité des personnes à mettre en œuvre la compétence éthique. Avant d’exercer la compétence éthique, il faut garder en tête que non seulement l’action est située (Lacroix, 2014), mais qu’elle est aussi tributaire du contexte plus vaste où des structures sociales, économiques, politiques, organisationnelles viennent imposer des contraintes au plein exercice de la compétence éthique des individus (Marchildon, 2017). Autrement dit, malgré toute la bonne volonté d’un individu, sa compétence à résoudre un enjeu éthique n’est pas garantie. Il faut considérer les divers jeux de pouvoir qui influencent sa capacité à agir :

La compétence éthique n’est ainsi jamais un acquis et son exercice est hautement dépendant des interactions entre les acteurs et les divers éléments des situations et contextes dans lesquels ils se trouvent. Ces interactions impliquent toujours par ailleurs l’exercice de pouvoirs, qui sont de nature fort variée, en plus d’être complexes et dynamiques […] (Marchildon, 2017 : 13).

16 Dans le présent texte, l’ajout de l’adjectif « critique » nous permet d’inclure ces jeux de pouvoir qui traversent et configurent la capacité d’agir. Ainsi, nous proposons de retenir la formule « enjeux éthiques et critiques » pour la suite de ce texte.

Conceptualisation de la relation « IA – enseignement supérieur »

17 Aborder les enjeux éthiques et critiques de l’IA en enseignement supérieur exige au préalable de clarifier la relation qu’entretiennent ces deux entités, et plus largement, les technologies et la société. Pour ce faire, nous recourons aux études du façonnage social de la technique ( social shaping of technology) dans le domaine des sciences et technologies anglophones (p. ex., MacKenzie et Wajcman, 1999 ; Williams, 2019 ; Bijker, Hughes et Pinch, 1987 ; Leigh-Star et Griesemer, 1989 ; Akrich, Callon et Latour, 2006). En réaction à une conception communément véhiculée des technologies en sciences humaines et sociales, qui pose une différence de nature entre la technique et la société, et donc une autonomie relative de chacune par rapport à l’autre, ces approches proposent une conceptualisation plus fine et moins dichotomique de la relation « technologies – société ». Dans cette perspective, les technologies sont constituées de dimensions à la fois techniques et sociales, dans la mesure où elles ne peuvent être dissociées de logiques de conception et d’usage humains qui les sous-tendent par nature. Autrement dit, une technologie ne peut pas être réduite à un objet matériel autonome : elle inclut toujours les multiples interventions humaines qui l’ont configurée de la conception aux usages, et qui l’ont marquée des représentations, des normes et des valeurs d’une société sociohistoriquement située. Mobilisés pour l’IA en enseignement supérieur, les enjeux éthiques et critiques, tout comme l’IA en tant que telle, sont appréhendés comme le résultat de configurations sociotechniques, qui ne peuvent être attribuées ni à l’IA ni à l’enseignement supérieur spécifiquement, mais à leur agencement relationnel.

18 Dans la foulée de la remise en cause de la division « technique – société », les études du façonnage social de la technique ont également contribué à renouveler la relation entre deux dimensions souvent considérées distinctement : la conception et l’usage. S’opposant à une vision « étapiste » où la conception se terminerait lors de la mise en marché, où commencerait l’usage, les approches sociotechniques ont montré que ces deux dimensions sont indissociables : de la conception aux usages, une technologie suit un processus de stabilisation progressive qui, loin d’être linéaire, implique des négociations synchroniques et diachroniques entre l’équipe de conception et les usagères et les usagers autour d’une technologie donnée et au travers de sa médiation. Une manière d’exprimer cette imbrication de la conception et de l’usage a été proposée par Madeleine Akrich (1987) par la métaphore du script, qu’elle décline en trois dimensions : l’inscription, la prescription et la souscription. Pour Akrich, la conception est définie comme une activité durant laquelle l’équipe de conception forge des scripts d’usage de plus en plus précis sur la base des représentations qu’elle se fait des individus visés et qu’elle inscrit dans les propriétés et les fonctions de la technologie qu’elle développe. En retour, la technologie prescrit aux individus réels les scripts et les représentations sous-jacentes dont elle résulte, en cadrant leurs usages, c’est-à-dire en en écartant certains et en en privilégiant d’autres, et en cadrant ces derniers, c’est-à-dire en les rendant possibles et en les contraignant tout à la fois (Akrich, 1987). En réponse aux prescriptions des technologies, les individus réels y souscrivent à des degrés divers dans la limite des contraintes techniques imposées et de leur compétence à les adapter en fonction de leurs besoins et aspirations. Cette triade « inscription – prescription – souscription » a l’avantage d’associer étroitement l’équipe de conception, les technologies et les individus au sein d’une même relation d’interdépendance, dans laquelle les actions de chaque partie sont solidaires des autres dans un processus d’ajustement mutuel. Dans le cadre des enjeux éthiques et critiques de l’IA en enseignement supérieur, nous la reprenons et la déclinons en trois pôles : la conception, les données et l’usage.

Quelques enjeux éthiques et critiques de l’IA en enseignement supérieur

19 Les sections précédentes ont permis de préciser sous quel angle nous proposons d’aborder les enjeux éthiques et critiques de l’IA en enseignement supérieur. Les lignes qui suivent présentent quelques-uns de ces enjeux, en commençant par ceux qui relèvent de la conception, puis ceux qui sont issus des données, et enfin, ceux qui sont issus de l’usage, tout en gardant en tête que ces dimensions participent d’un même processus et sont en interdépendance. Dans ce sens, un enjeu éthique et critique prédominant sur le plan de la conception a nécessairement des tenants et des aboutissants sur le plan des données et des usages, et inversement.

Quelques enjeux éthiques et critiques de conception

20 Nous présentons les enjeux éthiques et critiques de conception en les formulant en termes de représentation et de représentativité. Les risques associés sont donc de l’ordre de la minorisation, de la marginalisation, voire de la discrimination des groupes sociaux sous-représentés. Dans ce sens, un premier enjeu concerne les tensions et écarts potentiels entre la diversité des individus réels et les représentations que se fait l’équipe de conception des individus visés. Plus précisément, deux biais de l’équipe de conception peuvent alimenter la non-représentativité des individus réels par les individus visés, tels que se les imagine l’équipe de conception.

21 Le premier biais, appelé « méthode du moi » ( i-methodology , Akrich, 1995), consiste pour l’équipe de conception à se projeter indûment sur les individus visés, c’est-à-dire à penser que leur expérience sociale est représentative de celles des individus en général. Dans ce sens, les individus visés sont appréhendés par l’équipe de conception comme des « futur-moi », qui évolueraient dans des conditions sociales similaires, seraient sensibles aux mêmes valeurs, feraient l’expérience de besoins et d’aspirations semblables. Étant donné la diversité sociale des individus réels d’une part, et la spécificité des profils socioprofessionnels des équipes de conception d’autre part (en termes de niveau d’éducation, de domaine de formation, de niveau socioéconomique, de rapport aux technologies, etc.), il est peu probable que les secondes soient représentatives des premiers. Ce biais s’est régulièrement traduit par des technologies discriminatoires, les exemples les plus prégnants étant liés à la conception d’algorithmes qui font régulièrement scandale dans leur traitement des personnes à la couleur de peau foncée (voir, p. ex., Plenke, 2015). Sur le plan de l’enseignement supérieur, le biais de la méthode du moi et ses risques ont peu été documentés. Il est toutefois possible de penser qu’il opère lorsque les équipes de conception se basent indûment sur leur expérience d’étudiantes ou d’étudiants pour orienter la conception d’une technologie éducative qu’elles sont en train de développer. Les équipes de conception sur-généralisent ainsi leurs expériences, leurs valeurs et leurs représentations de l’enseignement à l’ensemble des milieux d’enseignement concernés.

22 Ce premier biais est susceptible d’être exacerbé par un second, appelé « l’usager universel » ( user as everybody , Oudshoorn, Rommes et Stienstra, 2004), suivant lequel l’équipe de conception homogénéise à outrance la représentation qu’elle se fait des individus visés, en ramenant ces derniers à un individu archétypal, en contre-pied de la diversité des individus réels. Avant d’être un biais éventuel, ce phénomène est une conséquence nécessaire à la standardisation qu’implique la production industrielle des technologies. Contrairement à la conception artisanale, qui permet d’aménager le processus de conception pour l’adapter aux spécificités d’un individu, la conception industrielle vise une production en masse. Bien que le produit technique puisse être plus ou moins ouvert et personnalisable, ces caractéristiques sont elles-mêmes le résultat d’une standardisation de l’individu visé. Ce processus de standardisation est également un processus de normalisation durant lequel les normes sociales dominantes ont toutes les chances d’alimenter chez l’équipe de conception la configuration d’un « individu moyen », aux dépens des groupes minoritaires et minorisés (Oudshoorn, Rommes et Stienstra, 2004). Par exemple, il est bien connu que le secteur de l’ingénierie informatique est surreprésenté par les hommes (Collet, 2004), lesquels constituent un groupe sociohistorique dominant qui a donc toutes les chances de s’imposer comme l’archétype de l’individu visé par les équipes de conception. Sur le plan de l’enseignement supérieur, le risque est que l’IA soit profilée autour de certaines caractéristiques dominantes du personnel enseignant ou de la communauté étudiante, et qu’elle ne soit pas à même de servir – ou de servir avec la même qualité et la même efficacité – celles et ceux qui ne répondent pas à ces caractéristiques. On pense ici, par exemple, aux étudiantes et étudiants à besoins particuliers, dont l’IA peut interpréter de façon erronée les comportements si elle les analyse en référence à une conception normalisante des étudiantes et des étudiants.

Quelques enjeux éthiques et critiques des données massives

6 Voir https://algorithmwatch.org/en/google-vision-racism/

23 Les développements actuels de l’IA – notamment l’apprentissage machine – exigent des données massives sur lesquelles entraîner l’IA et au moyen desquelles assurer son fonctionnement. Les enjeux éthiques et critiques qui en découlent sur le plan de l’usage peuvent de nouveau être formulés en termes de représentation et de représentativité. Le premier d’entre eux concerne les biais éventuels que peuvent contenir les données massives utilisées pour entraîner et optimiser l’IA. Hors enseignement supérieur, plusieurs exemples de situations réelles ont illustré les effets discriminatoires des jeux de données biaisés. Par exemple, en 2020, l’algorithme de reconnaissance visuelle de Google a identifié deux images similaires de manière différente selon la couleur de peau des personnes représentées 6 . Dans la première, une main à la couleur de peau claire tient un thermomètre infrarouge sans contact. L’algorithme a correctement identifié la main et le thermomètre. Dans la seconde image, la main à une couleur de peau foncée. L’algorithme a correctement identifié la main, mais a inféré que le thermomètre était un pistolet, ce qui s’explique par le fait que les images alimentant l’algorithme associent de manière plus fréquente des personnes à la couleur de peau foncée avec des armes à feu, dans des contextes de violence physique et de criminalité.

24 Transposé à l’enseignement supérieur, ce type de biais est susceptible de discriminer certains profils d’étudiantes et d’étudiants ou de milieux d’enseignement sur la base d’associations récurrentes de données générées par d’autres profils ou milieux. Par exemple, plusieurs étudiantes et étudiants utilisent leur ordinateur portable personnel en cours, parfois sur imposition de leur programme d’étude. Par leur accès permanent aux technologies, ces étudiantes et étudiants sont susceptibles de les utiliser plus fréquemment et plus spontanément que des étudiantes et étudiants qui ne le font pas, que ce soit par choix ou par impossibilité d’avoir accès à de l’équipement informatique en cours. Dans ce contexte, le risque est alors que les étudiantes et les étudiants plus connectés soient sur-représentés dans les données massives qui alimentent une IA aux dépens des étudiantes et étudiants moins connectés, dans la mesure où ils l’utilisent plus régulièrement. On comprend donc que le biais de sur-représentativité de certains profils d’étudiantes et d’étudiants ou de certains milieux d’enseignement peut recouper les stratifications éducatives existantes, et ainsi contribuer à les maintenir, voire à les renforcer.

Quelques enjeux éthiques et critiques d’usage

25 En reprenant les apports des études du façonnage social de la technique, le personnel enseignant et l’IA constituent une relation d’interdépendance étroite et permanente au sein de laquelle se distribuent les rôles, les tâches et les responsabilités pédagogiques. Or, l’automatisation de l’IA rend cette dernière progressivement apte à prendre en charge une partie croissante des tâches pédagogiques, éventuellement aux dépens de l’agentivité du personnel enseignant. Ceci pose la question de la préservation de l’autonomie et du jugement professionnels de ce dernier. Sur ce point, Lacroix et Boudreau (2017) signalent que « la compétence éthique se déploie plus qu’elle ne se conçoit ! » En effet, selon ces auteurs :

[S]i cette notion de compétence se vit plus qu’elle ne se conçoit, elle est par essence difficilement saisissable, ce qui risque de créer d’importants problèmes pour quiconque voudra l’enseigner, l’évaluer ou la déployer en milieu de travail comme à l’école (Lacroix et Boudreau, 2017).

26 Ainsi, la complexité conceptuelle du déploiement de la compétence éthique nous mène à conserver une réserve à savoir si cette compétence peut être artificiellement recréée, et a fortiori, programmée en amont de son déploiement. Dans cette optique, si l’IA peut soutenir la prise de décision, elle ne peut se substituer au jugement professionnel.

Pistes de solution et leurs limites

27 En réponse aux différents types d’enjeux évoqués ci-dessus, nous proposons de terminer cet article en donnant un aperçu des pistes de solution qui sont susceptibles d’y répondre. Nous abordons d’abord celles qui relèvent de la conception, puis celles qui relèvent des données et enfin celles qui ont trait à l’usage.

Sur le plan de la conception

28 Pour réduire les déficits possibles de représentativité par les équipes de conception, certaines stratégies ont été mises en œuvre au sein des équipes de conception. La première consiste à diversifier leur composition sociodémographique et ethnoculturelle afin d’assurer une meilleure représentation des différents groupes sociaux visés. Sur le plan de l’enseignement supérieur, il s’agirait de s’assurer que les équipes de conception recrutent des personnes enseignantes ayant une expertise et une expérience approfondies de la pédagogie, d’une part, et qu’elles soient représentatives de la diversité des milieux d’enseignement, d’autre part. Une stratégie voisine consiste à opter pour des modèles de conception « centrés-usager » (Labarthe, 2010), c’est-à-dire des modèles dans lesquels les individus réels sont impliqués de manière significative à différents moments du processus de conception de façon à configurer l’individu visé au plus proche des individus réels, notamment au moyen d’analyses des besoins, de tests-pilotes, de versions bêta, etc. Sur le plan de l’enseignement supérieur, cela implique de solliciter les milieux d’enseignement dès la phase de conception et de poursuivre l’optimisation de l’IA une fois qu’elle est en usage.

29 Ces deux stratégies connaissent toutefois des limites. La première a trait à la représentativité du personnel et des milieux d’enseignement qui interviennent dans le processus de conception, que ce soit en tant que membres de l’équipe de conception ou en tant qu’individus réels. Se pose la question de savoir dans quelle mesure ils sont représentatifs de la diversité des milieux visés par l’IA. À titre d’exemple, il est logique de penser que les personnes enseignantes les plus engagées dans l’intégration pédagogique des technologies sont également celles qui sont les plus portées à collaborer avec les équipes de conception lors de la conception de l’IA. En nous basant sur la typologie d’Everett Rogers (2003), ces personnes enseignantes ne représentent pourtant qu’environ 15 % d’une population enseignante donnée et ont des caractéristiques psychologiques particulières (Geoghegan, 1994), de sorte qu’elles ne sont pas représentatives du personnel enseignant dans son ensemble. Ce dernier étant moins porté à utiliser les technologies, il est susceptible de rencontrer plus de difficultés dans la compréhension et l’utilisation de l’IA, ce qui a des implications, par exemple, sur le nombre et la sophistication des fonctions pédagogiques que cette dernière propose. Une autre limite est plus générale. Elle a trait au fait que l’équipe de conception, étant donné son fort investissement dans le développement d’une IA, s’en attribue non seulement la propriété mais aussi la paternité : la technologie est leur « bébé » (Cockburn, 1997 : 364). Dans cette logique, le risque est que l’avis du personnel de l’enseignement supérieur soit minoré et sous-estimé, dès lors qu’il ne concorde pas avec celui de l’équipe de conception, dans la mesure où il est jugé moins légitime et moins connaissant que l’équipe de conception.

Sur le plan des données

30 Sur le plan des données, les pistes de solution portent, entre autres, sur le consentement des individus. En effet, un système de consentement libre, éclairé et continu est une voie possible pour un plus grand contrôle sur les données collectées, incluant leurs biais éventuels. Cependant, il existe plusieurs distorsions du consentement dans le cas de l’IA en général, et en enseignement supérieur en particulier. En premier lieu, l’IA est opaque à plus d’un titre : elle est techniquement complexe, de sorte que comprendre les implications éthiques et critiques des données qu’elle collecte est difficile pour un individu (Hakimi, Eynon et Murphy, 2021). En outre, certaines techniques computationnelles (p. ex., réseaux de neurones) ne permettent pas d’expliquer les décisions qui sont prises (Berendt, Littlejohn et Blakemore, 2020). Lorsque l’IA est développée par une compagnie privée, s’ajoute aussi l’opacité reliée au modèle d’affaires, lequel, pour rester compétitif, ne privilégie pas des algorithmes libres et ouverts. Pour ces différentes raisons, l’IA est une « boîte noire » qu’il est difficile d’ouvrir, de sorte que le consentement à la collecte de données personnelles est d’emblée contrecarré par le manque de transparence de l’IA. En enseignement supérieur, ce manque de transparence implique que les établissements d’enseignement supérieur qui intègrent l’IA le font sans une compréhension fine des données collectées et de leurs implications éducatives et sociales pour les étudiantes et les étudiants, alors même qu’ils sont responsables d’assurer le consentement libre, éclairé et continu de ces derniers. En somme, l’IA en enseignement supérieur peut générer une cascade d’opacité : opacité des données et de leur traitement par les compagnies qui les développent ; opacité des implications éducatives et sociales pour les établissements d’enseignement supérieur qui les implantent ; donc opacité des étudiantes et des étudiants et du personnel enseignant lorsqu’ils y consentent.

Sur le plan de l’usage

31 En enseignement supérieur, les pistes de solution pour répondre aux enjeux éthiques et critiques de l’IA sur le plan de l’usage sont orientées vers la formation du personnel enseignant et des étudiantes et des étudiants au fonctionnement technique de l’IA et à ses implications éducatives et sociales.

32 Par exemple, il est possible de prévoir une activité délibérative sur les enjeux de l’IA pour le marché du travail, dont l’objectif est de développer chez les étudiantes et les étudiants une posture critique et un pouvoir d’agir sur l’IA. Cette piste pédagogique est celle poursuivie, sur le plan scientifique, par Daniel Krutka, Marie Heath et Bret Staudt Willet (2019). Ces auteurs proposent un modèle technoéthique visant le développement de compétences critiques des futures enseignantes et des futurs enseignants face à l’IA au moyen de la délibération. Ces dernières et ces derniers sont alors amenés à considérer l’IA dans ses différentes dimensions : éthique, bien sûr, mais aussi légale, démocratique, économique, technologique et pédagogique. Bien que ce modèle soit exhaustif, une de ses limites réside sans doute sa faisabilité : pour le mettre en œuvre, il est nécessaire pour les formatrices et les formateurs, ainsi que pour les futures enseignantes et les futurs enseignants de disposer des connaissances sur chacune de ces dimensions, en l’absence de quoi il leur est impossible de délibérer. Or, à titre d’exemple, les aspects légaux de l’IA en éducation ne font pas partie des contenus de formation des futures enseignantes et des futurs enseignants et demandent donc un travail d’appropriation préalablement à la délibération. Une autre limite de ce modèle est qu’il n’implique pas les administratrices et les administrateurs des établissements, qui sont bien souvent celles et ceux à qui il revient de choisir le SIA qui sera adopté par leur établissement.

33 L’objectif de cet article était d’amorcer la réflexion sur les enjeux éthiques et critiques de l’IA en enseignement supérieur en mobilisant un point de vue interdisciplinaire. Nous avons illustré cette démarche en l’appliquant à certains enjeux éthiques et critiques de l’IA en enseignement supérieur regroupés en trois pôles : la conception, les données et l’usage. Nous avons aussi souligné des pistes de solution qui permettraient de prendre en compte ces enjeux éthiques et critiques, mais qui connaissent elles aussi des limites, de sorte que la réflexion éthique et critique sur l’IA en enseignement supérieur ne semble pas disposer de leviers d’action clairs présentement.

34 Loin d’une posture technophobe, l’idée de s’intéresser aux enjeux éthiques et critiques de l’IA en enseignement supérieur est de prévenir les risques qu’elle peut générer tout en saisissant les occasions qu’elle offre pour l’enseignement supérieur. De ce point de vue, la réflexion sur les enjeux éthiques et critiques de l’IA en enseignement supérieur gagne à être amorcée dès la phase de conception et tout au long de l’usage, et en étroite relation avec ses visées applicatives. Ce postulat implique que les logiques applicatives et éthiques et critiques ne sont pas incompatibles par nature. Si tel était le cas, le développement de l’une se ferait aux dépens de l’autre. S’il est vrai que ces logiques peuvent être en tension, l’enjeu principal de les travailler conjointement de la conception à l’usage est précisément de les arrimer au mieux, avec la finalité de renforcer l’acceptabilité éducative de l’IA. En résumé, application de l’IA et réflexion sur ses enjeux éthiques et critiques en enseignement supérieur ne devraient pas aller l’un sans l’autre. On retrouve ici les préoccupations de l’ ethics by design (Iphofen et Kritikos, 2021 ; Dignum et al ., 2018), qui s’intéresse aux principes éthiques de l’IA et à leur mise en œuvre au sein des équipes de conception, mais aussi au sein des SIA lors de leur usage. Dans la mesure où l’enseignement supérieur – et l’éducation en général – semble avoir moins fait l’objet que d’autres secteurs d’une réflexion sur les enjeux éthiques et critiques de l’IA, il gagne à tirer profit des acquis d’autres disciplines des sciences humaines et sociales en les adaptant aux singularités des technologies en éducation.

35 Il revient donc aux communautés éducative, scientifique et technologique de l’IA en enseignement supérieur de lier étroitement ces deux dimensions ou de limiter les développements de l’IA de façon à ce que les implications éducatives de cette dernière soient contrôlables. Chose certaine, l’absence de moyens pleins et entiers pour anticiper et résoudre les enjeux éthiques et critiques relatifs à l’intégration des SIA en enseignement supérieur comme c’est le cas actuellement soulève des préoccupations réelles.

Bibliographie

Abrassart , Christophe et al . (2018), Déclaration de Montréal pour un développement responsable de l’intelligence artificielle , Montréal, https://www.declarationmontreal-iaresponsable.com/_files/ugd/ebc3a3_28b2dfe7ee13479caaf820477de1b8bc.pdf?index=true (consulté le 12 novembre 2022).

Akrich , Madeleine (1987), « Comment décrire les objets techniques ? », Techniques et Cultures , n o  9, p. 49-64

Akrich , Madeleine (1995), « User representations: Practices, methods and sociology », dans T. Misa , J. Schot et A. Rip (dir.), Managing technology in society: The approach of constructive technology assessment , London, Pinter Publishers, p. 167-84.

Akrich , Madeleine, Michel Callon et Bruno Latour (dir.) (2006), Sociologie de la traduction : textes fondateurs , Paris, Presses des Mines.

Berendt , Bettina, Allison Littlejohn et Mike Blakemore (2020), « AI in education: learner choice and fundamental rights », Learning, Media and Technology , vol. 45, n o   3, p. 312-324.

Bijker , Wiebe, Thomas Hughes et Trevor Pinch (dir.) (1987), The Social Construction of Technological Systems , Cambridge, Cambridge, MIT Press

Cockburn , Cynthia (1997), « Domestic technologies: Cinderella and the engineers », Women’s Studies International Forum , vol. 20, n o   3, p. 361-371.

Collet , Isabelle (2004), « La disparition des filles dans les études d’informatique: les conséquences d’un changement de représentation », Carrefour de l’éducation , vol. 1, n o  17, p. 42-56.

Collin , Simon et Emmanuelle Marceau (2021), « L’intelligence artificielle en éducation : enjeux de justice », Formation et profession , revue scientifique internationale en éducation , vol. 29, n o  2, p. 1-4, https://formation-profession.org/articles/live/230 (consulté le 12 novembre 2022).

Dignum , Virginia et al. (2018), Ethics by Design: Necessity or Curse? Actes de colloque de l’AIES’18, Nouvelle-Orléans, 2-3 février.

Geoghegan , William (1994), What ever happened to instructional technology? Présentation à la 22 e Annual Conference of the International Business Schools Computing Association Baltimore, Maryland, 17-20 juillet.

Hakimi , Laura, Rebecca Eynon et Victoria Murphy (2021), « The Ethics of Using Digital Trace Data in Education: A Thematic Review of the Research Landscape », Review of Educational Research , vol. 91, n o  5, p. 671-717.

Iphofen , Ron, et Mihalis Kritikos (2021), « Regulating artificial intelligence and robotics: ethics by design in a digital society », Contemporary Social Science , vol. 16, n o   2, p. 170-184.

Krutka , Daniel, Marie Heath et Bret Staudt Willet (2019), « Foregrounding technoethics: Toward critical perspectives in technology and teacher education », Journal of Technology and Teacher Education , vol. 27, n o  4, p.  555-574.

Krutka , Daniel, Ryan Smits et Troy Willhelm (2021), « Don’t Be Evil: Should We Use Google in Schools? », TechTrends , https://doi.org/10.1007/s11528-021-00599-4 (consulté le 12 novembre 2022).

Labarthe , Fabien (2010), « Design et SHS dans le processus d’innovation centrée-usager : quels apports réciproques ? » Échappées , vol. 2, p. 14-25.

Lacroix , André (2014), « La philosophie en action », dans A. Lacroix (dir.), Quand la philosophie doit s’appliquer , Paris, Éditions Hermann, p. 79-116.

Lacroix , André (dir.) et al . (2006), « Éthique appliquée, éthique engagée : réflexion sur une notion », Montréal, Liber.

Lacroix , André et Emmanuelle Marceau (2019), « Éthique et droit : des rapports complexes et variables pour réguler l’espace public », dans S. Bernatchez et L. Lalonde (dir.), Approches et fondements du droit , Cowansville, Éditions Yvon Blais, p. 187-216.

Lacroix , André et Marie-Claude Boudreau (2017), « Présentation », Éthique publique , vol. 19, n o  1, https://doi.org/10.4000/ethiquepublique.2874 (consulté le 12 novembre 2022).

Lacroix , André, Allison Marchildon et Luc Bégin (2017), Former à l’éthique en organisation : une approche pragmatique , Québec, Presses de l’Université du Québec.

LeCun , Yann (2016), Les enjeux de la recherche en intelligence artificielle , Collège de France, https://interstices.info/les-enjeux-de-la-recherche-en-intelligence-artificielle/ (consulté le 12 novembre 2022).

Leigh - Star , Susan et James Griesemer (1989), « Institutional Ecology, “Translations” and Boundary Objects: Amateurs and Professionals in Berkeley’s Museum of Vertebrate Zoology », Social Studies of Science , n o  3, p. 387-420

MacKenzie , Donald et Judy Wajcman (dir.) (1999), The social shaping of technology , 2 de édition, Maidenhead, Open University Press.

Malherbe , Jean-François (2001), « L’éthique comme pratique critique », dans J.-F. Malherbe (dir.), Déjouer l’interdit de penser. Essais d’éthique critique , Montréal, Liber, p. 15-28.

Marceau , Emmanuelle (2015), Les défis de l’éthicisation du droit : validité conceptuelle des lois éthiques en contexte québécois , thèse de doctorat non publiée, Université de Sherbrooke.

Marchildon , Allison (2017), « Le pouvoir de déployer la compétence éthique », Éthique publique , vol. 19, n o  1, https://journals.openedition.org/ethiquepublique/2920 (consulté le 12 novembre 2022).

Oudshoorn , Nelly, Els Rommes et Marcelle Stienstra (2004), « Configuring the User as Everybody: Gender and Design Cultures in Information and Communication Technologies », Science Technology and Human Values , vol. 29, no  1, p. 30-63.

Plenke , Max (2015), « Google just misidentified 2 African-Americans in the most racist way possible », Mic , https://www.mic.com/articles/121555/google-photos-misidentifies-african-americans-as-gorillas (consulté le 25 novembre 2021).

Rogers , Everett (2003), The diffusion of innovations , 5 e édition, New York, The Free Press.

Verchère , Céline, Johane Patenaude et Georges-Auguste Legault (2021), Innover en conscience : une approche par les usagers responsables , Montréal, Les éditions Nullius In Verba.

Williams , Robin (2019), « The social shaping of technology (SST) », dans T. Pittinsky (dir.), Science, Technology, and Society: New Perspectives and Directions , Cambridge, Cambridge University Press, p. 138-162.

Zawacki - Richter , Olaf et al . (2019), « Systematic review of research on artificial intelligence applications in higher education – where are the educators? », International Journal of Educational Technology in Higher Education , vol. 16, n o  39, https://doi.org/10.1186/s41239-019-0171-0 (consulté le 12 novembre 2022).

3 Dans le cadre de ce texte, l’enseignement supérieur comprend les établissements collégiaux et universitaires.

Pour citer cet article

Référence électronique.

Simon Collin et Emmanuelle Marceau , « Enjeux éthiques et critiques de l’intelligence artificielle en enseignement supérieur » ,  Éthique publique [En ligne], vol. 24, n° 2 | 2022, mis en ligne le 23 janvier 2023 , consulté le 25 avril 2024 . URL  : http://journals.openedition.org/ethiquepublique/7619 ; DOI  : https://doi.org/10.4000/ethiquepublique.7619

Simon Collin

Simon Collin est professeur à la Faculté des sciences de l’éducation de l’Université du Québec à Montréal (UQAM). Il est titulaire de la Chaire de recherche du Canada sur l’équité numérique en éducation. Il est également chercheur au Centre de recherche interuniversitaire sur la formation et la profession enseignante (CRIFPE) et dans l’axe « Éducation et capacitation » de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA), ainsi qu’à HumanIA. Il s’intéresse aux enjeux d’équité et de démocratisation que suscitent les technologies en éducation, qu’il aborde au croisement des travaux interdisciplinaires de la technique et des théories critiques.

Emmanuelle Marceau

Emmanuelle Marceau est professeure de philosophie au cégep du Vieux Montréal et professeure associée à l’École de santé publique (ESPUM), de l’Université de Montréal. Elle est également chargée de cours à l’Université de Sherbrooke. Elle est chercheure associée au Centre de recherche en éthique (CRÉ), au Centre de recherche en droit public (CRDP), à HumanIA et dans l’axe « gouvernance et éthique » à l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA). Elle s’intéresse aux modes de gouvernance et à leurs interactions (éthique appliquée, droit et déontologie), dans une perspective de recherche de justice.

Droits d’auteur

Le texte et les autres éléments (illustrations, fichiers annexes importés), sont « Tous droits réservés », sauf mention contraire.

Numéros en texte intégral

  • vol. 25, n° 2 | 2023 La place de la vérité en politique et l’avenir du service public : où en sommes-nous 25 ans plus tard?
  • vol. 25, n° 1 | 2023 Une santé à toute épreuve ? Éthique de l’utilisation de l’intelligence artificielle dans le secteur de la santé
  • vol. 24, n° 2 | 2022 Accompagner l’autonomie aujourd’hui
  • vol. 24, n° 1 | 2022 Enjeux éthiques de l’exercice des pouvoirs publics en temps de crise
  • vol. 23, n° 2 | 2021 La gouvernance algorithmique
  • vol. 23, n° 1 | 2021 Marchés publics et grands projets d’infrastructure : comment gérer les risques éthiques ?
  • vol. 22, n° 1 | 2020 Débats publics sur sujets sensibles : risques et défis
  • vol. 21, n° 2 | 2019 Les instruments de la justice fiscale
  • vol. 21, n° 1 | 2019 Certification de l'éthique et enjeux éthiques de la certification
  • vol. 20, n° 2 | 2018 Les défis éthiques des déterminants sociaux de la santé
  • vol. 20, n° 1 | 2018 Conditions éthiques de l'interface politico-administrative en régime démocratique
  • vol. 19, n° 2 | 2017 Patrimoine et éthique publique : enjeux politiques et professionnels de la représentation et de la communication du patrimoine
  • vol. 19, n° 1 | 2017 Former à la compétence éthique : un défi ou une impasse ?
  • vol. 18, n° 2 | 2016 Éthique et scandales publics
  • vol. 18, n° 1 | 2016 Controverse et acceptabilité sociale des projets de développement économique
  • vol. 17, n° 2 | 2015 Enjeux éthiques des (biens) communs
  • vol. 17, n° 1 | 2015 Penser l'ouverture des frontières
  • vol. 16, n° 2 | 2014 Éthique et reconfigurations de l’économie de marché : nouvelles alternatives, nouveaux enjeux
  • vol. 16, n° 1 | 2014 Enjeux éthiques des politiques publiques en matière d'environnement
  • vol. 15, n° 2 | 2013 Enjeux éthiques de l'aide publique au développement
  • vol. 15, n° 1 | 2013 Enjeux éthiques et pratiques déontologiques du 4 e pouvoir
  • vol. 14, n° 2 | 2012 Quelques enjeux éthiques du numérique
  • vol. 14, n° 1 | 2012 Peuples autochtones et enjeux d'éthique publique
  • vol. 13, n° 2 | 2011 Dialogues pour réinventer la démocratie
  • vol. 13, n° 1 | 2011 Faire des lois sur l'éthique ?
  • vol. 12, n° 1 | 2010 Responsabilité sociale et éthique de la recherche
  • vol. 11, n° 2 | 2009 Le travail en crise
  • vol. 11, n° 1 | 2009 Justice scolaire et école publique
  • vol. 10, n° 2 | 2008 Les enjeux éthiques du vieillissement
  • vol. 10, n° 1 | 2008 Les finances publiques
  • vol. 9, n° 2 | 2007 Les gardiens de l'éthique
  • vol. 9, n° 1 | 2007 L'aménagement de la diversité culturelle et religieuse
  • vol. 8, n° 2 | 2006 Le complexe médico-pharmaceutique
  • vol. 8, n° 1 | 2006 La religion dans l'espace public
  • vol. 7, n° 2 | 2005 L'éthique du sport en débat
  • vol. 7, n° 1 | 2005 Nouvelles formes de la démocratie
  • vol. 6, n° 2 | 2004 Les enjeux éthiques de la gestion de l'informatique
  • vol. 6, n° 1 | 2004 Que reste-t-il du bien commun ?
  • vol. 5, n° 2 | 2003 Sexe, jeu, drogue. Du moralisme à l'éthique publique
  • vol. 5, n° 1 | 2003 Éthique et allocation des ressources en santé
  • vol. 4, n° 2 | 2002 Éthique préventive
  • vol. 4, n° 1 | 2002 Éthique de l'administration et du service public
  • vol. 3, n° 2 | 2001 Éthique de la magistrature
  • vol. 3, n° 1 | 2001 L'État tuteur
  • vol. 2, n° 2 | 2000 Éthique de la recherche
  • vol. 1, n° 2 | 1999 Éthique des affaires et déréglementation
  • vol. 1, n° 1 | 1999 La vérité en politique ; l'avenir des services publics

Tous les numéros

Appels à contribution.

  • Appels en cours
  • Appels clos

Présentation

  • Équipe éditoriale
  • Directives aux auteurs

Informations

  • Mentions légales
  • Politiques de publication

Suivez-nous

Flux RSS

Lettres d’information

  • La Lettre d’OpenEdition

Affiliations/partenaires

OpenEdition Journals

ISSN électronique 1929-7017

Voir la notice dans le catalogue OpenEdition  

Plan du site  – Contact  – Crédits  – Mentions légales  – Flux de syndication

Politique de confidentialité  – Gestion des cookies  – Signaler un problème

Nous adhérons à OpenEdition  – Édité avec Lodel  – Accès réservé

Vous allez être redirigé vers OpenEdition Search

Le moteur de recherche des thèses françaises

Les personnes liées aux thèses, recherche avancée, le droit face à l'intelligence artificielle : analyse croisée en droits français et arménien, mots clés contrôlés, mots clés libres.

Les enjeux juridiques de l’intelligence artificielle font l’objet d’études diverses. Etant toujours un système de traitement de données fonctionnant de manière autonome, l’intelligence artificielle résulte de la combinaison d’algorithmes et de données qui sont respectivement regroupés en logiciels et en bases de données. Cependant, cette entité technologique agit d’une manière qui la rapproche d’une personne physique. Dans ce contexte, il s’agit dans un premier temps de proposer une qualification juridique pour l’intelligence artificielle. Particulièrement, la démarche consiste à réfléchir à l’opportunité et à la nécessité de la reconnaissance d’un nouveau statut de l’intelligence artificielle, ainsi qu’à analyser la possibilité de l’appropriation de ce phénomène. Dans un second temps, se pose la question de l’encadrement juridique du fonctionnement de l’intelligence artificielle. Dans un dernier temps, la finalité de l’étude consiste à analyser l’adaptation de plusieurs régimes juridiques de responsabilité aux spécificités et difficultés propres à l’intelligence artificielle.

IMAGES

  1. Intelligence Artificielle

    dissertation sur l'intelligence artificielle pdf

  2. PDF le futur de l'intelligence artificielle PDF Télécharger Download

    dissertation sur l'intelligence artificielle pdf

  3. Introduction à l’intelligence artificielle

    dissertation sur l'intelligence artificielle pdf

  4. Publication scientifique : L’intelligence artificielle à l’aide des

    dissertation sur l'intelligence artificielle pdf

  5. Calaméo

    dissertation sur l'intelligence artificielle pdf

  6. (PDF) À la recherche de l'intelligence artificielle

    dissertation sur l'intelligence artificielle pdf

VIDEO

  1. Les conséquences économiques de l'intelligence artificielle

  2. Méthode en Philo: 20 Arguments pour disserter sur L'ART

  3. L’(in)explicabilité de l'IA: au-delà de la technique, l’enjeu organisationnel et politique[V.Steyer]

  4. Intelligence Artificielle [7.3] : Raisonnement probabiliste

  5. Qu'est-ce que l'Intelligence artificielle ?

  6. SUJET DISSERTATION SUR LA NÉGRITUDE : INTRODUCTION CORRIGÉE

COMMENTS

  1. PDF Introduction à L'Intelligence Artificielle

    Le but de l'Intelligence Artificielle (IA) est de concevoir des systèmes capables de reproduire le comportement de l'humain dans ses activités de raisonnement. L'IA se fixe comme but la modélisation de l'intelligence prise comme phénomène (de même que la physique, la chimie ou la biologie qui ont pour but de modéliser d'autres ...

  2. L'intelligence artificielle : une certaine intelligence du social

    L'intelligence artificielle : une certaine intelligence du social ... Thesis or Dissertation. Fayon_Didier_2021_these.pdf (3.876Mb) 2021-09 (degree granted: 2021-11-17) Author(s) ... La recherche en IA porte également sur la mise en forme de savoirs savants et professionnels tout comme durant les années 1960 et 1970, mais cette thèse ne s ...

  3. (Pdf) Les Impacts De L'Intelligence Artificielle Sur Les Employés Dans

    Quels sont les impacts de l'intelligence artificielle sur les employés dans le monde du travail? Cette étude explore les enjeux éthiques, sociaux et juridiques liés à l'implantation de l'IA ...

  4. L'intelligence artificielle: entre opportunités et risques légitimes

    1. L'intelligence artificielle: le cadre théorique La recherche qualitative visant à mesurer les impacts de l'I.A. sur les entreprises et salariés, suppose de définir ce construit et de mettre en lumière ses propres caractéristiques. Cette première partie présente les apports de la littérature dédiée à l'I.A., ses définitions ...

  5. PDF Intelligence Artificielle : Régulation, Protection et Transparence

    Cette réflexion s'articulera au travers des problématiques que rencontre l'intelligence artificielle en tant que concept au sein de l'ordre juridique (Partie 1) ; et enfin à la protection et transparence des données et algorithmes en tant que substances essentielles de l'intelligence artificielle (Partie 2).

  6. PDF Université Du Québec Mémoire Présenté a À Trois-rivières Comme Exigence

    H. L. Dreyfus sur l'Intelligence Artificielle, aussi bien que celle de certains concepts et thèses importantes dans le domaine de 11ntelligence Artificielle. L'idée conductrice du travail est que l'Intelligence Artificielle est fondée sur un Logos, lequel est constitué de théories scientifiques et phllosophiques et de connaissances techniques.

  7. PDF Faut-il en avoir peur

    tâches entre humains et machines. L'intelligence artificielle, enfin, aggravera-t-elle l'impact négatif de l'économie numérique sur l'emploi mondial ou fera-t-elle partie de la solution ? Nous l'ignorons encore. Mais, à l'inverse, l'intelligence artificielle devient une des clés de compréhension de notre monde,

  8. (PDF) L'intelligence artificielle en éducation: un aperçu des

    PDF | Le Rapport sur l'état et les besoins de l'éducation 2018-2020 porte sur le numérique en éducation. ... L'intelligence artificielle en éducation: un aperçu des possibilités et des ...

  9. PDF Faut-il craindre l'intelligence artificielle?

    texte Les trois lois de l'intelligence artificielle , le mythe selon lequel l'IA représente une menace existentielle pour l'humanité est l'un des plus répandus et est source de nombreux malentendus. L'IA repose sur des algorithmes mathématiques qui se contentent de rechercher des modèles. La croyance selon laquelle

  10. PDF Intelligence Artificielle

    Intelligence artificielle : une thématique de recherche majeure pour Inria 1. Samuel et Toi.Net 5 2. 2016, l'année de l'intelligence artificielle (IA) ? 9 3. Les débats sur l'IA 14 4. Les défis de l'IA et les contributions d'Inria 19 4.1 Les défis génériques de l'intelligence artificielle 23 4.2 Dans l'apprentissage automatique 26

  11. PDF travail et de l'emploi

    qui constituerait un point de basculement où l'intelligence artificielle dépasserait l'intelligence humaine 3 avec toutes les conséquences que l'on peut imaginer sur la place et le rôle des humains dans le monde du travail. Même si l'hypothèse d'une singularité reste très hypothétique à l'heure actuelle, il n'en reste

  12. PDF Les défis de l'intégration de l'intelligence artificielle en entreprise

    recherche sur internet par exemple sur les vols de Montréal vers Cuba, on saperçoit que plusieurs publicités et offres de vols Montréal-Cuba sont proposées, quel que soit lendroit où on navigue en ligne par la suite. Cette intelligence artificielle cible nos préférences par nos recherches et fait la promotion du contenu qui peut nous ...

  13. Quelques theses autour de la thematique de l'Intelligence Artificielle

    Il convient, à ce propos, de s'inter-roger sur la manière dont les acteurs agissent/ réagissent face au caractère révolutionnaire des mégadonnées et des dispositifs permettant de les traiter. Ces derniers préparent une intégra-tion massive des intelligences artificielles au sein des différentes sphères de la société.

  14. PDF Les Risques De L'Intelligence Artificielle

    Notre champ d'action concernant l'intelligence artificielle du type IA faible sera perçu largement dans le sens où sera comparable à ce système tout robot, machine ou même profilage. D'ailleurs, le Règlement Général sur la Protection des Données (RGPD) 21 , garde-fou législatif

  15. (PDF) Intégration de l'Intelligence artificielle dans l'enseignement

    • Conférence internationale sur l'intelligence artificielle et l'éducation, Chine, 2019 • Forum inter national 2021 sur l'intelligence artificielle et l'éducation, P aris, 2021 • etc.

  16. PDF Comprendre l'impact de l'intelligence artificielle sur le développement

    L'ère de l'intelligence artificielle n'est vieille que de quelques années, mais son impact ... AI HLEG Groupe d'experts de haut niveau de la Commission européenne sur l'intelligence artificielle (GEHN IA) BIBB Bundesinstitut für Berufsbildung (Institut fédéral de la formation professionnelle, Allemagne)

  17. PDF Mémoire de fin d'études L'intelligence artificielle : une solution à la

    Le mémoire ici présent a pour thème l'intelligence artificielle en tant que solution à la prise de décision quotidienne . L'objectif de ce dernier est de se questionner et donc de poser une réflexion sur la possibilité que dans un futur plus ou moins proche, les intelligences artificielles puissent être intégrées dans notre

  18. PDF Chapitre 13 : L'intelligence artificielle

    Le terme « intelligence artificielle » (IA) recouvre un ensemble de théories et de techniques qui traitent de problèmes dont la résolution fait appel à l'intelligence humaine. Les techniques de prédiction et d'anticipation de l'IA fonctionnent grâce à des données d'apprentissage, aussi appelées données d'entraînement.

  19. Enjeux éthiques et critiques de l'intelligence artificielle en

    Si l'intelligence artificielle (IA) suscite un intérêt certain en enseignement supérieur, la réflexion éthique et critique sur les enjeux qu'elle soulève dans ce contexte particulier est moins avancée, de sorte qu'« application technique » et « réflexion éthique et critique » sont peu arrimées présentement. Cet article peut être compris comme un premier pas vers une ...

  20. PDF Introduction

    Introduction - Les réflexions philosophiques étudiantes sur l'intelligence artificielle KeVen Bisson, Codirecteur de la revue Phares, Université Laval et romane marcotte, Codirectrice de la revue Phares, Université Laval Avec les commentaires de Jocelyn maclure, professeur titulaire à la Faculté de philosophie de l'Université Laval

  21. Intelligence artificielle : de quoi parle-t-on ?

    1Qu'est-ce que l'intelligence artificielle ?La question peut paraître simple, mais la réponse est loin de l'être. Car si l'on peut définir l'intelligence artificielle (IA) en quelques mots -la science de rendre les machines intelligentes, pour reprendre la formule utilisée par un des plus brillants spécialistes du domaine, le cofondateur de DeepMind, Demis Hassabis - un tel résumé ...

  22. PDF Chapitre 1 Introduction à l'Intelligence Artificielle

    2 Historique de l'intelligence artificielle L'Intelligence Artificielle, branche de l'Informatique fondamentale s'est développée avec pour objectif la simulation des comportements du cerveau humain. Les premières tentatives de modélisation du cerveau sont anciennes et précèdent même l'ère informatique. 2.1. Canard de Vaucanson ...

  23. Le droit face à l'intelligence artificielle : analyse croisée en droits

    Les enjeux juridiques de l'intelligence artificielle font l'objet d'études diverses. Etant toujours un système de traitement de données fonctionnant de manière autonome, l'intelligence artificielle résulte de la combinaison d'algorithmes et de données qui sont respectivement regroupés en logiciels et en bases de données. Cependant, cette entité technologique agit d'une ...