Considérations éthiques dans les systèmes de surveillance des examens en ligne basés sur le Deep Learning

Konan YAO, Tiémoman KONE, Saho Venance ZOH, Koffi Fernand KOUAME

Résumé


Cet article, explore les préoccupations éthiques liées aux systèmes de surveillance des examens en ligne basés sur le Deep Learning. En effet, Ces systèmes utilisent des données personnelles telles que les empreintes digitales ou les caractéristiques faciales pour identifier et authentifier les utilisateurs, ce qui implique l'accès à des informations liées à leur identité. Toutefois, le fonctionnement de ces systèmes de surveillance, notamment ceux utilisant la technologie de reconnaissance faciale, peut soulever des préoccupations quant à la collecte de données personnelles sans le consentement des utilisateurs, créant ainsi des problèmes potentiels pour la vie privée de ces derniers. En outre, l'identification incorrecte de la fraude en raison de l'utilisation d'algorithmes moins précis peut engendrer des frustrations. Cette étude vise à fournir des directives aux parties prenantes impliquées dans la conception et la mise en place de systèmes de surveillance des examens en ligne.  Après une analyse approfondie des considérations éthiques existantes, en nous appuyant principalement sur la littérature et les lois et réglementations en vigueur, nous pouvons                identifier quatre principales valeurs éthiques, à savoir : i) la préservation de la vie privée des apprenants, ii) l’équité dans la participation aux examens, iii) la sécurisation et la protection des données des apprenants, iv) et la prévention du biais algorithmique. En conséquence, des lignes directrices ont été élaborées pour garantir que le système respecte les principes d’éthiques   et les droits des utilisateurs tout en répondant aux exigences de sécurité et de fiabilité nécessaires pour prévenir la fraude

Mots-clés


Surveillance des examens en ligne ; apprentissage profond ; vie privée ; éthique de l’intelligence artificielle

Texte intégral :

PDF

Références


L. Audet. Les pratiques et défis de l’évaluation en ligne », 2011.

T. H. Reisenwitz. Examining the necessity of proctoring online exams. Journal of Higher Education Theory and Practice, vol. 20, no 1, p. 118‑124, 2020.

G. Burel, K. B. Gaied, R. B. Abdelkader, et R. Gautier. Aide à la détection de l’échange d’information entre étudiants dans les contrôles à distance. J3eA, vol. 22, p. 0001, 2023.

A. Nigam, R. Pasricha, T. Singh, et P. Churi. A systematic review on ai-based proctoring systems : Past, present and future. Education and Information Technologies, vol. 26, no 5, p. 6421‑6445, 2021.

Y. Zhenming, Z. Liang, et Z. Guohua. A novel web-based online examination system for computer science education. in 33rd ASEE/IEEE Frontiers in Education Conference, 2003, p. 5‑8.

P. Wang, W.-H. Lin, K.-M. Chao, et C.-C. Lo. A face-recognition approach using deep reinforcement learning approach for user authentication. in 2017 IEEE 14th International Conference on e-Business Engineering (ICEBE), IEEE, 2017, p. 183‑188.

S. G. Rabiha, I. H. Kartowisastro, R. Setiawan, et W. Budiharto. Survey of Online Exam Proctoring Model to Detect Cheating Behavior based on Face Recognition. In 2022 8th International Conference on Systems and Informatics (ICSAI), IEEE, 2022, p. 1‑7.

G. N. Uunona et L. Goosen. Leveraging Ethical Standards in Artificial Intelligence Technologies : A Guideline for Responsible Teaching and Learning Applications. In Handbook of Research on Instructional Technologies in Health Education and Allied Disciplines, IGI Global, 2023, p. 310‑330.

C. Fontes, E. Hohma, C. C. Corrigan, C. Lütge. AI-powered public surveillance systems : why we (might) need them and how we want them », Technology in Society, vol. 71, p. 102137, nov. 2022, doi : 10.1016/j.techsoc.2022.102137

I. T. Ketley. Case Study : Code of Ethics for Facial Recognition Technology », WFEESS, juill. 2022, doi : 10.26686/wfeess.vi.7664.

D. Almeida, K. Shmarko, et E. Lomas. The ethics of facial recognition technologies, surveillance, and accountability in an age of artificial intelligence : a comparative analysis of US, EU, and UK regulatory frameworks. AI Ethics, vol. 2, no 3, p. 377‑387, août 2022, doi : 10.1007/s43681-021-00077-w.

T. Y. Zhuo, Y. Huang, C. Chen, et Z. Xing. Exploring ai ethics of chatgpt : A diagnostic analysis. ArXiv preprint arXiv :2301.12867, 2023.

S. Coghlan, T. Miller, et J. Paterson. Good proctor or “big brother” ? Ethics of online exam supervision technologies. Philosophy & Technology, vol. 34, no 4, p. 1581‑1606, 2021.

E. Aizenberg et J. Van Den Hoven. Designing for human rights in AI. Big Data & Society, vol. 7, no 2, p. 2053951720949566, 2020.

H. Beetham et al. Surveillance practices, risks and responses in the post pandemic university. Digital Culture and Education, vol. 14, no 1, p. 16‑37, 2022.

D. Harwell. Cheating-detection companies made millions during the pandemic. Now students are fighting back. », Washington Post, 12 novembre 2020. https://www.washingtonpost.com/technology/2020/11/12/test-monitoring-student-revolt/ (consulté le 18 juillet 2023).

M. Smith et S. Miller. The ethical application of biometric facial recognition technology. Ai & Society, p. 1‑9, 2022.

K. Ali, M. Alzaidi, D. Al-Fraihat, et A. M. Elamir. Artificial Intelligence : Benefits, Application, Ethical Issues, and Organizational Responses », in Intelligent Sustainable Systems, Springer, Singapore, 2023, p. 685‑702. doi : 10.1007/978-981-19-7660-5_62.

G. Kostka, L. Steinacker, M. Meckel. Under big brother’s watchful eye : Cross-country attitudes toward facial recognition technology », Government Information Quarterly, vol. 40, no 1, p. 101761, janv. 2023, doi : 10.1016/j.giq.2022.101761.

K. Lee et M. Fanguy. Online exam proctoring technologies : Educational innovation or deterioration ? British Journal of Educational Technology, vol. 53, no 3, p. 475‑490, 2022.

S. Swauger, « Our bodies encoded : Algorithmic test proctoring in higher education », Cluster Learning, 2021.

R. K. Sandhu, J. Vasconcelos-Gomes, Manoj A. Thomas, T. Oliveira. Unfolding the popularity of video conferencing apps – A privacy calculus perspective », International Journal of Information Management, vol. 68, p. 102569, févr. 2023, doi: 10.1016/j.ijinfomgt.2022.102569.

E. Archer, « Technology-driven proctoring: Validity, social justice and ethics in higher education », pie, vol. 41, no 1, Art. no 1, mars 2023, doi: 10.38140/pie.v41i1.6666.

L. Huang, « Ethics of artificial intelligence in education : Student privacy and data protection », Science Insights Education Frontiers, vol. 16, no 2, p. 2577‑2587, 2023.

Md R. I. Sattar, Md. T. B. H. Efty, T. S. Rafa, T. Das, Md S. Samad, A. Pathak, M. U. Khandaker, Md. H. Ullah. An advanced and secure framework for conducting online examination using blockchain method. Cyber Security and Applications, vol. 1, p. 100005, déc. 2023, doi : 10.1016/j.csa.2022.100005.

P. P. Ray. ChatGPT : A comprehensive review on background, applications, key challenges, bias, ethics, limitations and future scope », Internet of Things and Cyber-Physical Systems, vol. 3, p. 121‑154, janv. 2023, doi : 10.1016/j.iotcps.2023.04.003.

J. Buolamwini et T. Gebru. Gender shades : Intersectional accuracy disparities in commercial gender classification. In Conference on fairness, accountability and transparency, PMLR, 2018, p. 77‑91.

UNESCO. Managing high-stakes assessments and exams during crisis - UNESCO Bibliothèque Numérique ». https://unesdoc.unesco.org/ark:/48223/pf0000373387 (consulté le 19 juillet 2023).

J. R. Schoenherr ; R. Abbas ; K. Michael ; P. Rivas ; T. D. Anderson. Designing AI Using a Human-Centered Approach : Explainability and Accuracy Toward Trustworthiness. https://ieeexplore.ieee.org/abstract/document/10086944/ (consulté le 19 juillet 2023).

UNESCO. Éthique de l’intelligence artificielle | UNESCO. https://www.unesco.org/fr/artificial-intelligence/recommendation-ethics (consulté le 20 juillet 2023).

F. J. Zuiderveen Borgesius. Strengthening legal protection against discrimination by algorithms and artificial intelligence », The International Journal of Human Rights, vol. 24, no 10, p. 1572‑1593, 2020.

Union Européenne, « EUR-Lex - 32016R0679 - EN - EUR-Lex ». https://eur-lex.europa.eu/eli/reg/2016/679/oj (consulté le 20 juillet 2023).

« California Consumer Privacy Act (CCPA) », State of California - Department of Justice - Office of the Attorney General, 15 octobre 2018. https://oag.ca.gov/privacy/ccpa (consulté le 20 juillet 2023).

NITDA. National Information Technology Development Agency ». https://nitda.gov.ng/ (consulté le 20 juillet 2023).

« Home - Information Regulator ». https://inforegulator.org.za/ (consulté le 20 juillet 2023).

M. Gornet et W. Maxwell, « Normes techniques et éthique de l’IA », in Conférence Nationale en Intelligence Artificielle (CNIA), 2023.

T. Ménissier, « Quelle éthique pour l’IA ? », in Naissance et développements de l’intelligence artificielle à Grenoble, 2019.

E. Pardoux et L. Devillaine, « Vers une éthique processuelle de l’IA », in Conférence Nationale en Intelligence Artificielle 2022 (CNIA 2022), 2022.

H. Brahmi, S. Belouali, Y. Demazeau, T. Bouchentouf, et N. H. Alaoui, « Vers un référentiel universel pour un usage éthique de l’intelligence artificielle », East African Journal of Information Technology, vol. 6, no 1, p. 91‑106, 2023.

S. Nzobonimpa. Algorithmes et intelligence artificielle : une note sur l’état de la réglementation des technologies utilisant la reconnaissance faciale automatique au Canada et aux États-Unis », gouvernance, vol. 19, no 2, p. 99‑114, 2022, doi: 10.7202/1094078ar.

C. Tessier. Éthique et IA: analyse et discussion », in CNIA 2021: Conférence Nationale en Intelligence Artificielle, 2021, p. pp-22.

« Algorithmes discriminatoires - Comprendre le numérique - UNIGE », 3 mai 2021. https://www.unige.ch/comprendre-le-numerique/archives/cas-pratiques/algorithmes-discriminatoires/ (consulté le 22 juillet 2023).

« Loi modifiée d’aujourd’hui - SB-1172 Loi sur la protection de la vie privée des étudiants candidats. » https://leginfo.legislature.ca.gov/faces/billCompareClient.xhtml?bill_id=202120220SB1172&showamends=false (consulté le 22 juillet 2023).

« Facial Recognition Laws in China #ProjectPanoptic », Internet Freedom Foundation, 3 juin 2021. https://internetfreedom.in/facial-recognition-laws-in-china/ (consulté le 22 juillet 2023).

« Coming into Focus : China’s Facial Recognition Regulations | Trustee China Hand | CSIS ». https://www.csis.org/blogs/trustee-china-hand/coming-focus-chinas-facial-recognition-regulations (consulté le 22 juillet 2023).

D. générale du Trésor. La stratégie japonaise sur l’intelligence artificielle : augmentation des investissements, enjeux éthiques, sociétaux et réglementaires, et opportunités de coopérations avec la France. Direction générale du Trésor, 9 juillet 2018. https://www.tresor.economie.gouv.fr/Articles/2018/07/03/la-strategie-japonaise-sur-l-intelligence-artificielle-augmentation-des-investissements-enjeux-ethiques-societaux-et-reglementaires-et-opportunites-de-cooperations-avec-la-france (consulté le 22 juillet 2023).

P. par thinkoneadmin. 【Summary Report】Open Discussion: The Japanese Society for Artificial Intelligence (2017/5/24). https://www.ai-gakkai.or.jp/ai-elsi/archives/615 (consulté le 22 juillet 2023).

« Formulaires POPIA - Régulateur d’information », 4 mars 2022. https://inforegulator.org.za/popia-forms/ (consulté le 22 juillet 2023).

« WIPO Lex, Sénégal, Loi n° 2008-12 sur la Protection des données à caractère personnel ». https://www.wipo.int/wipolex/fr/legislation/details/6229 (consulté le 22 juillet 2023).

« Autorité de Régulation des Télécommunications/TIC de Côte d’Ivoire - L’Autorité ». https://www.artci.ci/ (consulté le 22 juillet 2023).

C. à la protection de la vie privée du Canada, « Aperçu des lois sur la protection des renseignements personnels au Canada », 15 mai 2014. https://www.priv.gc.ca/fr/sujets-lies-a-la-protection-de-la-vie-privee/lois-sur-la-protection-des-renseignements-personnels-au-canada/02_05_d_15/ (consulté le 26 juillet 2023).

Montréal. Déclaration de Montréal IA responsable », Déclaration de Montréal IA responsable. https://declarationmontreal-iaresponsable.com/ (consulté le 26 juillet 2023).

D. Nokam Kuaté. Cryptographie homomorphe et transcodage d’image/video dans le domaine chiffré. PhD Thesis, Université Paris-Saclay (ComUE), 2018.

C. Gentry et S. Halevi. Implementing gentry’s fully-homomorphic encryption scheme. In Annual international conference on the theory and applications of cryptographic techniques, Springer, 2011, p. 129‑148.

P. Bertail, D. Bounie, S. Clémençon, et P. Waelbroeck. Algorithmes : biais, discrimination et équité. 2019.

C. D. Biais. Comment limiter les biais des algorithmes ?

S. Michel, S. Gerbaix, et M. Bidan, « Questionnement éthique des systèmes algorithmiques. RIMHE : Revue Interdisciplinaire Management, Homme (s) & Entreprise, no 1, p. 105‑116, 2023.

M. Verger, F. Bouchet, S. Lallé, et V. Luengo. Caractérisation et mesure des discriminations algorithmiques dans la prédiction de la réussite à des cours en ligne. In EIAH2023 : 11ème Conférence sur les Environnements Informatiques pour l’Apprentissage Humain, 2023.

T. Kirat, O. Tambou, V. Do, et A. Tsoukias. Equité et explicabilité des algorithmes d’apprentissage automatique : un défi technique et juridique. 2022.

G. Saporta. Équité, explicabilité, paradoxes et biais. Statistique et Société, vol. 10, no 3, 2023.


Renvois

  • Il n'y a présentement aucun renvoi.