R.E.News International-European Commission releases analysis of stakeholder feedback on AI definitions and prohibited practices public consultations
21/05/25-FR-English-NL-footer
La Commission européenne publie une analyse des retours des parties prenantes sur les définitions et les pratiques interdites de l'IA suite aux consultations publiques.
Image-R.E.News©
La Commission européenne a publié un rapport analysant les retours des parties prenantes sur les définitions et les pratiques interdites de l'IA.
Ce rapport, préparé par le CEPS pour le Bureau européen de l'IA, se concentre sur les obligations réglementaires de la loi sur l'IA, en vigueur depuis février 2025.
Les acteurs du secteur ont fourni la majorité des commentaires, réclamant des définitions plus claires de termes tels que « adaptabilité » et « autonomie ».
Les lignes directrices sur les pratiques interdites traitent de la manipulation préjudiciable, de la notation sociale et de l'identification biométrique à distance en temps réel.
La Commission souhaite, grâce à ces lignes directrices, aider les fournisseurs à déterminer si un système logiciel est qualifié de système d'IA.
Les deux séries de lignes directrices évolueront en fonction de l'expérience pratique et des nouveaux cas d'utilisation.
Ces consultations ont porté sur deux obligations réglementaires de la loi sur l'IA – la définition des systèmes d'IA et les pratiques d'IA interdites – en vigueur depuis le 2 février 2025.
La Commission s'est appuyée sur ces consultations publiques et d'autres sources de commentaires pour rédiger ses lignes directrices non contraignantes sur les pratiques interdites et la définition des systèmes d'IA, destinées à aider les fournisseurs et les parties prenantes à appliquer efficacement la loi sur l'IA.
Le rapport présente une analyse complète des réponses à chacune des 88 questions de la consultation des parties prenantes, organisée en neuf sections clés. Il montre que les parties prenantes du secteur ont représenté la majorité des réponses à la consultation publique (47,2 % sur près de 400 réponses), tandis que la participation des citoyens est restée limitée (5,74 %). Les répondants ont appelé à des définitions plus claires de termes techniques tels que « adaptabilité » et « autonomie », mettant en garde contre le risque de réglementer par inadvertance les logiciels conventionnels.
Les lignes directrices sur les pratiques interdites abordent spécifiquement des domaines tels que la manipulation préjudiciable, la notation sociale et l'identification biométrique à distance en temps réel. Elles incluent des clarifications juridiques et des exemples pratiques pour aider les parties prenantes à comprendre et à respecter la loi sur l'IA.
Le rapport souligne notamment que les pratiques interdites, telles que la reconnaissance des émotions, la notation sociale et l'identification biométrique en temps réel, ont suscité de vives inquiétudes. Les parties prenantes ont réclamé des exemples concrets de ce qui est interdit et de ce qui ne l'est pas.
En publiant des lignes directrices sur la définition d'un système d'IA, la Commission vise à aider les fournisseurs et autres personnes concernées à déterminer si un système logiciel constitue un système d'IA afin de faciliter l'application efficace des règles.
Les deux séries de lignes directrices sont appelées à évoluer au fil du temps en fonction de l'expérience pratique, des nouveaux cas d'utilisation et des nouvelles questions.
NJC.© Info CECE
----------------------------------------------------------------------------------------------------------------
21/05/25-English
European Commission releases analysis of stakeholder feedback on AI definitions and prohibited practices public consultations
Image-R.E.News©
The European Commission published a report analyzing stakeholder feedback on AI definitions and prohibited practices.
The report, prepared by CEPS for the EU AI Office, focuses on the AI Act's regulatory obligations effective since February 2025.
Industry stakeholders provided the majority of feedback, with calls for clearer definitions of terms like "adaptiveness" and "autonomy".
Guidelines on prohibited practices address harmful manipulation, social scoring, and real-time remote biometric identification.
The Commission aims to assist providers in determining whether a software system qualifies as an AI system through these guidelines.
Both sets of guidelines will evolve based on practical experience and emerging use cases.
These consultations focused on two AI Act regulatory obligations - the definition of AI systems and prohibited AI practices – which have been in application since 2 February 2025.
The Commission drew on both these public consultations and other sources of feedback to draft its non-binding guidelines on prohibited practices and definition of AI systems, aimed at assisting providers and stakeholders in the effective application of the AI Act.
The report presents a comprehensive analysis of responses to each of the 88 questions of the stakeholder consultation, organised into nine key sections. It shows that industry stakeholders accounted for the majority of responses to the public consultation (47.2% of nearly 400 replies), while citizen participation remained limited (5.74%). Respondents called for clearer definitions of technical terms such as "adaptiveness" and "autonomy", cautioning against the risk of inadvertently regulating conventional software.
The guidelines on prohibited practices specifically address areas such as harmful manipulation, social scoring, and real-time remote biometric identification, and include legal clarifications and practical examples to support stakeholder understanding and compliance with the AI Act.
Among other findings, the report highlights that prohibited practices - such as emotion recognition, social scoring, and real-time biometric identification - occasioned significant concern. Stakeholders called for concrete examples of what is prohibited and what not.
By issuing guidelines on the AI system definition, the Commission aims to assist providers and other relevant persons in determining whether a software system constitutes an AI system to facilitate the effective application of the rules.
Both sets of guidelines are expected to evolve over time in response to practical experience, emerging use cases, and new questions.
NJC.© Info CECE
-------------------------------------------------------------------------------------------------------------------
21/05/25-NL
Europese Commissie publiceert analyse van feedback van belanghebbenden over AI-definities en verboden praktijken tijdens openbare raadplegingen
Image-R.E.News©
De Europese Commissie heeft een rapport gepubliceerd waarin de feedback van belanghebbenden over AI-definities en verboden praktijken wordt geanalyseerd.
Het rapport, opgesteld door CEPS voor het EU AI Office, richt zich op de wettelijke verplichtingen van de AI-wet die sinds februari 2025 van kracht zijn.
Belanghebbenden in de sector leverden de meeste feedback, met oproepen tot duidelijkere definities van termen zoals "aanpassingsvermogen" en "autonomie".
Richtlijnen voor verboden praktijken behandelen schadelijke manipulatie, sociale scores en realtime biometrische identificatie op afstand.
De Commissie wil aanbieders via deze richtlijnen helpen bepalen of een softwaresysteem als AI-systeem kwalificeert.
Beide richtlijnen zullen evolueren op basis van praktische ervaring en nieuwe use cases.
Deze raadplegingen waren gericht op twee wettelijke verplichtingen uit de AI-wet – de definitie van AI-systemen en verboden AI-praktijken – die sinds 2 februari 2025 van kracht zijn.
De Commissie heeft zowel deze openbare raadplegingen als andere feedbackbronnen gebruikt om haar niet-bindende richtsnoeren over verboden praktijken en de definitie van AI-systemen op te stellen, bedoeld om aanbieders en belanghebbenden te helpen bij de effectieve toepassing van de AI-wet.
Het rapport presenteert een uitgebreide analyse van de antwoorden op elk van de 88 vragen van de raadpleging van belanghebbenden, onderverdeeld in negen belangrijke secties. Het laat zien dat belanghebbenden uit de sector de meerderheid van de reacties op de openbare raadpleging vertegenwoordigden (47,2% van de bijna 400 antwoorden), terwijl de burgerparticipatie beperkt bleef (5,74%). Respondenten pleitten voor duidelijkere definities van technische termen zoals "aanpassingsvermogen" en "autonomie", en waarschuwden voor het risico van onbedoelde regulering van conventionele software.
De richtlijnen voor verboden praktijken richten zich specifiek op gebieden zoals schadelijke manipulatie, sociale scores en realtime biometrische identificatie op afstand, en bevatten juridische verduidelijkingen en praktische voorbeelden om het begrip en de naleving van de AI-wet door belanghebbenden te ondersteunen.
Het rapport benadrukt onder andere dat verboden praktijken - zoals emotieherkenning, sociale scores en realtime biometrische identificatie - tot aanzienlijke bezorgdheid hebben geleid. Belanghebbenden vroegen om concrete voorbeelden van wat wel en niet verboden is.
Met het uitvaardigen van richtlijnen voor de definitie van AI-systemen wil de Commissie aanbieders en andere relevante personen helpen bepalen of een softwaresysteem een AI-systeem is, om de effectieve toepassing van de regels te vergemakkelijken.
De verwachting is dat beide richtlijnen in de loop der tijd zullen evolueren naar aanleiding van praktische ervaring, nieuwe use cases en nieuwe vragen.
NJC.© Info CECE
-------------------------------------------------------------------------------------------------------------
Date de dernière mise à jour : 20/05/2025