Unveiling Hidden Assumptions: How Underlying Beliefs Shape Legal Norms and Create Insufficiency in Artificial Intelligence Regulation
| dc.contributor.author | Boine, Claire | |
| dc.contributor.supervisor | Castets-Renard, Céline | |
| dc.date.accessioned | 2025-11-07T15:19:55Z | |
| dc.date.available | 2025-11-07T15:19:55Z | |
| dc.date.issued | 2025-11-07 | |
| dc.description.abstract | This dissertation argues that unchallenged assumptions embedded in European Union AI law have led to significant regulatory insufficiency. To demonstrate this, the thesis examines the regulation of General Purpose AI (GPAI), manipulative AI systems, and AI companions. In the case of GPAI, it is argued that the initial legal frameworks were shaped by outdated beliefs about the relationship between data, capability, and harm, rendering them inadequate for the novel challenges posed by GPAI. Similarly, the analysis of AI-enabled manipulation reveals that E.U. law is predicated on flawed assumptions about human rationality and free will, resulting in an under-inclusive ban that fails to address a wide range of manipulative practices. Finally, the case study of AI companions illustrates the tangible harms - ranging from emotional distress to severe psychological manipulation - that arise from these regulatory gaps. By uncovering these hidden assumptions, this work demonstrates how they have influenced the development of key legal instruments like the AI Act, the GDPR, and the UCPD, ultimately creating a legal apparatus ill-equipped to protect individuals from the multifaceted risks of advanced AI systems. -- Cette thèse soutient que des présupposés non remis en question, intégrés dans le droit de l'Union européenne en matière d'IA, ont conduit à une insuffisance réglementaire importante. Pour le démontrer, elle examine le droit de l'intelligence artificielle à usage général, des systèmes d'IA manipulatoires et des compagnons virtuels. S'agissant de l'IA à usage général, il est avancé que le cadre juridique initial proposé par l'AI Act a été façonné par des croyances dépassées sur la relation entre données, capacités et préjudices, le rendant inadapté aux défis inédits posés par l'IA à usage général. De même, l'analyse de la manipulation facilitée par l'IA révèle que le droit de l'UE repose sur des hypothèses erronées concernant la rationalité et le libre arbitre humains, aboutissant à une interdiction trop restrictive qui ne couvre pas un large éventail de pratiques manipulatoires. Enfin, l'étude de cas consacrée aux compagnons virtuels illustre les préjudices concrets - allant de la détresse émotionnelle à la manipulation psychologique sévère - qui découlent de ces lacunes réglementaires. En mettant à jour ces présupposés implicites, ce travail montre comment ils ont influencé l'élaboration d'instruments juridiques clés tels que le règlement sur l'IA, le RGPD et la directive sur les pratiques commerciales déloyales, aboutissant à un appareil juridique mal équipé pour protéger les individus contre les risques multiformes des systèmes d'IA avancés. | |
| dc.identifier.uri | http://hdl.handle.net/10393/51012 | |
| dc.identifier.uri | https://doi.org/10.20381/ruor-31494 | |
| dc.language.iso | en | |
| dc.publisher | Université d'Ottawa / University of Ottawa | |
| dc.subject | AI law | |
| dc.subject | Artificial intelligence | |
| dc.subject | Consumer Protection | |
| dc.subject | General Purpose AI | |
| dc.subject | Large Language Models | |
| dc.subject | AI Act | |
| dc.subject | Virtual companions | |
| dc.title | Unveiling Hidden Assumptions: How Underlying Beliefs Shape Legal Norms and Create Insufficiency in Artificial Intelligence Regulation | |
| dc.type | Thesis | en |
| thesis.degree.discipline | Droit / Law | |
| thesis.degree.level | Doctoral | |
| thesis.degree.name | PhD |
