The Commission proposed new rules and actions aiming to turn Europe into the global hub for trustworthy Artificial Intelligence (AI).
The combination of the first-ever legal framework on AI and a new Coordinated Plan with Member States will guarantee the safety and fundamental rights of people and businesses, while strengthening AI uptake, investment and innovation across the EU. New rules on Machinery will complement this approach by adapting safety rules to increase users' trust in the new, versatile generation of products.
The new AI regulation will make sure that Europeans can trust what AI has to offer. Proportionate and flexible rules will address the specific risks posed by AI systems and set the highest standard worldwide. The Coordinated Plan outlines the necessary policy changes and investment at Member States level to strengthen Europe's leading position in the development of human-centric, sustainable, secure, inclusive and trustworthy AI.
The new rules will be applied directly in the same way across all Member States based on a future-proof definition of AI. They follow a risk-based approach:
Unacceptable risk: AI systems considered a clear threat to the safety, livelihoods and rights of people will be banned. This includes AI systems or applications that manipulate human behaviour to circumvent users' free will (e.g. toys using voice assistance encouraging dangerous behaviour of minors) and systems that allow ‘social scoring' by governments.
High-risk: AI systems identified as high-risk include AI technology used in:
High-risk AI systems will be subject to strict obligations before they can be put on the market:
In particular, all remote biometric identification systems are considered high risk and subject to strict requirements. Their live use in publicly accessible spaces for law enforcement purposes is prohibited in principle. Narrow exceptions are strictly defined and regulated (such as where strictly necessary to search for a missing child, to prevent a specific and imminent terrorist threat or to detect, locate, identify or prosecute a perpetrator or suspect of a serious criminal offence). Such use is subject to authorisation by a judicial or other independent body and to appropriate limits in time, geographic reach and the data bases searched.
Limited risk, i.e. AI systems with specific transparency obligations: When using AI systems such as chatbots, users should be aware that they are interacting with a machine so they can take an informed decision to continue or step back.
Minimal risk: The legal proposal allows the free use of applications such as AI-enabled video games or spam filters. The vast majority of AI systems fall into this category. The draft Regulation does not intervene here, as these AI systems represent only minimal or no risk for citizens' rights or safety.
In terms of governance, the Commission proposes that national competent market surveillance authorities supervise the new rules, while the creation of a European Artificial Intelligence Board will facilitate their implementation, as well as drive the development of standards for AI. Additionally, voluntary codes of conduct are proposed for non-high-risk AI, as well as regulatory sandboxes to facilitate responsible innovation.
Coordination will strengthen Europe's leading position in human-centric, sustainable, secure, inclusive and trustworthy AI. To remain globally competitive, the Commission is committed to fostering innovation in AI technology development and use across all industries, in all Member States.
First published in 2018 to define actions and funding instruments for the development and uptake of AI, the Coordinated Plan on AI enabled a vibrant landscape of national strategies and EU funding for public-private partnerships and research and innovation networks. The comprehensive update of the Coordinated Plan proposes concrete joint actions for collaboration to ensure all efforts are aligned with the European Strategy on AI and the European Green Deal, while taking into account new challenges brought by the coronavirus pandemic. It puts forward a vision to accelerate investments in AI, which can benefit the recovery. It also aims to spur the implementation of national AI strategies, remove fragmentation, and address global challenges.
The updated Coordinated Plan will use funding allocated through the Digital Europe and Horizon Europe programmes, as well as the Recovery and Resilience Facility that foresees a 20% digital expenditure target, and Cohesion Policy programmes, to:
Machinery products cover an extensive range of consumer and professional products, from robots to lawnmowers, 3D printers, construction machines, industrial production lines. The Machinery Directive, replaced by the new Machinery Regulation, defined health and safety requirements for machinery. This new Machinery Regulation will ensure that the new generation of machinery guarantees the safety of users and consumers, and encourages innovation. While the AI Regulation will address the safety risks of AI systems, the new Machinery Regulation will ensure the safe integration of the AI system into the overall machinery. Businesses will need to perform only one single conformity assessment.
Additionally, the new Machinery Regulation will respond to the market needs by bringing greater legal clarity to the current provisions, simplifying the administrative burden and costs for companies by allowing digital formats for documentation and adapting conformity assessment fees for SMEs, while ensuring coherence with the EU legislative framework for products.
The European Parliament and the Member States will need to adopt the Commission's proposals on a European approach for Artificial Intelligence and on Machinery Products in the ordinary legislative procedure. Once adopted, the Regulations will be directly applicable across the EU. In parallel, the Commission will continue to collaborate with Member States to implement the actions announced in the Coordinated Plan.
For years, the Commission has been facilitating and enhancing cooperation on AI across the EU to boost its competitiveness and ensure trust based on EU values.
Following the publication of the European Strategy on AI in 2018 and after extensive stakeholder consultation, the High-Level Expert Group on Artificial Intelligence (HLEG) developed Guidelines for Trustworthy AI in 2019, and an Assessment List for Trustworthy AI in 2020. In parallel, the first Coordinated Plan on AI was published in December 2018 as a joint commitment with Member States.
The Commission's White Paper on AI, published in 2020, set out a clear vision for AI in Europe: an ecosystem of excellence and trust, setting the scene for today's proposal. The public consultation on the White Paper on AI elicited widespread participation from across the world. The White Paper was accompanied by a ‘Report on the safety and liability implications of Artificial Intelligence, the Internet of Things and robotics' concluding that the current product safety legislation contains a number of gaps that needed to be addressed, notably in the Machinery Directive.
Source: European Commission I Press Corner (https://bit.ly/2RJIEMk)
Η Επιτροπή πρότεινε νέους κανόνες και δράσεις με στόχο να καταστεί η Ευρώπη παγκόσμιος κόμβος αξιόπιστης τεχνητής νοημοσύνης (ΤΝ). Ο συνδυασμός του πρώτου νομικού πλαισίου για την ΤΝ στην ιστορία και ενός νέου συντονισμένου σχεδίου με τα κράτη μέλη θα εγγυάται την ασφάλεια και τα θεμελιώδη δικαιώματα των πολιτών και των επιχειρήσεων, ενισχύοντας παράλληλα την αποδοχή της ΤΝ, τις επενδύσεις και την καινοτομία σε ολόκληρη την ΕΕ. Οι νέοι κανόνες για τα μηχανήματα θα συμπληρώσουν την εν λόγω προσέγγιση, προσαρμόζοντας τους κανόνες ασφαλείας ώστε να ενισχυθεί η εμπιστοσύνη των χρηστών/χρηστριών στη νέα πολυδύναμη γενιά προϊόντων.
Ο νέος κανονισμός για την ΤΝ θα διασφαλίσει ότι οι Ευρωπαίοι μπορούν να εμπιστεύονται όλα όσα έχει να προσφέρει η ΤΝ. Οι αναλογικοί και ευέλικτοι κανόνες θα αντιμετωπίσουν τους ειδικούς κινδύνους που ενέχουν τα συστήματα ΤΝ και θα θέσουν τα πλέον υψηλά πρότυπα σε παγκόσμιο επίπεδο. Το συντονισμένο σχέδιο περιγράφει τις απαραίτητες αλλαγές πολιτικής και τις απαραίτητες επενδύσεις σε επίπεδο κρατών μελών για την ενίσχυση της ηγετικής θέσης της Ευρώπης στην ανάπτυξη ανθρωποκεντρικής, βιώσιμης, ασφαλούς και αξιόπιστης ΤΝ χωρίς αποκλεισμούς.
Οι νέοι κανόνες θα εφαρμόζονται άμεσα και με τον ίδιο τρόπο σε όλα τα κράτη μέλη βάσει ενός διαχρονικού ορισμού της τεχνητής νοημοσύνης. Οι εν λόγω κανόνες ακολουθούν μια προσέγγιση με βάση τον κίνδυνο:
Μη αποδεκτός κίνδυνος: τα συστήματα ΤΝ που θεωρείται ότι συνιστούν σαφή απειλή για την ασφάλεια, τον βιοπορισμό και τα δικαιώματα των ατόμων θα απαγορεύονται. Εδώ περιλαμβάνονται συστήματα ή εφαρμογές ΤΝ που χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούληση των χρηστών/χρηστριών (παραδείγματος χάριν, παιχνίδια με φωνητικό βοηθό που παροτρύνουν ανηλίκους σε επικίνδυνη συμπεριφορά) και συστήματα που επιτρέπουν την «κοινωνική βαθμολόγηση» από τις κυβερνήσεις.
Υψηλός κίνδυνος: στα συστήματα ΤΝ που χαρακτηρίζονται ως υψηλού κινδύνου περιλαμβάνεται η τεχνολογία ΤΝ που χρησιμοποιείται:
Τα συστήματα ΤΝ υψηλού κινδύνου θα υπόκεινται σε αυστηρές υποχρεώσεις προτού επιτραπεί η διάθεσή τους στην αγορά:
Ειδικότερα, όλα τα συστήματα εξ αποστάσεως βιομετρικής ταυτοποίησης θεωρούνται υψηλού κινδύνου και υπόκεινται σε αυστηρές απαιτήσεις. Η χρήση τους σε πραγματικό χρόνο σε δημοσίως προσβάσιμους χώρους για σκοπούς επιβολής του νόμου καταρχήν απαγορεύεται. Οι ελάχιστες εξαιρέσεις σ' αυτόν τον κανόνα καθορίζονται και ρυθμίζονται αυστηρά (για παράδειγμα, όταν είναι απολύτως αναγκαίο για την αναζήτηση αγνοούμενου παιδιού, για την πρόληψη συγκεκριμένης και επικείμενης τρομοκρατικής απειλής ή για τον εντοπισμό, την επισήμανση, την ταυτοποίηση ή τη δίωξη δράστη ή υπόπτου σοβαρής αξιόποινης πράξης). Η χρήση αυτή υπόκειται στην έγκριση δικαστικής ή άλλης ανεξάρτητης αρχής και σε κατάλληλους περιορισμούς όσον αφορά το χρονικό διάστημα, τη γεωγραφική εμβέλεια και τις βάσεις δεδομένων όπου πραγματοποιείται αναζήτηση.
Περιορισμένος κίνδυνος, δηλαδή συστήματα ΤΝ που υπόκεινται σε συγκεκριμένες υποχρεώσεις διαφάνειας: όταν χρησιμοποιούν συστήματα ΤΝ όπως τα διαλογικά ρομπότ (chatbot), οι χρήστες θα πρέπει να γνωρίζουν ότι αλληλεπιδρούν με μηχάνημα, ώστε να μπορούν να λάβουν τεκμηριωμένη απόφαση να συνεχίσουν ή να διακόψουν την αλληλεπίδραση.
Ελάχιστος κίνδυνος: η νομική πρόταση επιτρέπει την ελεύθερη χρήση εφαρμογών όπως βιντεοπαιχνιδιών βασισμένων στην τεχνητή νοημοσύνη ή φίλτρων ανεπιθύμητης αλληλογραφίας. Η συντριπτική πλειονότητα των συστημάτων ΤΝ εμπίπτουν σε αυτή την κατηγορία. Το σχέδιο κανονισμού δεν παρεμβαίνει σε αυτή την κατηγορία, καθώς αυτά τα συστήματα ΤΝ συνεπάγονται μόνο ελάχιστο ή μηδενικό κίνδυνο για τα δικαιώματα και την ασφάλεια των πολιτών.
Όσον αφορά τη διακυβέρνηση, η Επιτροπή προτείνει οι εθνικές αρμόδιες αρχές εποπτείας της αγοράς να εποπτεύουν τους νέους κανόνες, ενώ η δημιουργία ενός Ευρωπαϊκού Συμβουλίου Τεχνητής Νοημοσύνης θα διευκολύνει την εφαρμογή τους και θα προωθήσει την ανάπτυξη προτύπων για την ΤΝ. Επιπλέον, προτείνονται εθελοντικοί κώδικες δεοντολογίας για την ΤΝ μη υψηλού κινδύνου, καθώς και ρυθμιστικά δοκιμαστήρια για τη διευκόλυνση της υπεύθυνης καινοτομίας.
Ο συντονισμός θα ενισχύσει την ηγετική θέση της Ευρώπης στον τομέα της ανθρωποκεντρικής, βιώσιμης, ασφαλούς και αξιόπιστης ΤΝ χωρίς αποκλεισμούς. Για να παραμείνει ανταγωνιστική σε παγκόσμιο επίπεδο, η Επιτροπή έχει δεσμευθεί να προωθήσει την καινοτομία στην ανάπτυξη και χρήση της τεχνολογίας ΤΝ σε όλες τις βιομηχανίες και σε όλα τα κράτη μέλη.
Το συντονισμένο σχέδιο για την τεχνητή νοημοσύνη, που δημοσιεύθηκε για πρώτη φορά το 2018 για τον καθορισμό δράσεων και χρηματοδοτικών μέσων με σκοπό την ανάπτυξη και την αποδοχή της τεχνητής νοημοσύνης, κατέστησε δυνατή τη διαμόρφωση ενός δυναμικού τοπίου εθνικών στρατηγικών και τη χρηματοδότηση της ΕΕ για συμπράξεις δημόσιου και ιδιωτικού τομέα και δίκτυα έρευνας και καινοτομίας. Με τη συνολική επικαιροποίηση του συντονισμένου σχεδίου προτείνονται συγκεκριμένες κοινές δράσεις συνεργασίας προκειμένου να διασφαλιστεί ότι όλες οι προσπάθειες εναρμονίζονται με την ευρωπαϊκή στρατηγική για την τεχνητή νοημοσύνη και την Ευρωπαϊκή Πράσινη Συμφωνία, λαμβάνοντας παράλληλα υπόψη τις νέες προκλήσεις που συνεπάγεται η πανδημία του κορονοϊού. Προτείνεται ένα όραμα για την επιτάχυνση των επενδύσεων στην ΤΝ, οι οποίες μπορούν να ωφελήσουν την ανάκαμψη. Σκοπός της είναι, επίσης, να δώσει ώθηση στην εφαρμογή εθνικών στρατηγικών ΤΝ, να εξαλείψει τον κατακερματισμό και να δώσει απάντηση σε παγκόσμιες προκλήσεις.
Το επικαιροποιημένο συντονισμένο σχέδιο θα χρησιμοποιήσει τη χρηματοδότηση που διατίθεται μέσω των προγραμμάτων «Ψηφιακή Ευρώπη» και «Ορίζων Ευρώπη», καθώς και του Μηχανισμού Ανάκαμψης και Ανθεκτικότητας που προβλέπει στόχο 20 % για ψηφιακές δαπάνες και των προγραμμάτων της πολιτικής συνοχής με σκοπό:
Τα μηχανολογικά προϊόντα καλύπτουν ένα ευρύ φάσμα καταναλωτικών και επαγγελματικών προϊόντων, από ρομπότ έως χορτοκοπτικά, εκτυπωτές τρισδιάστατης εκτύπωσης, μηχανήματα κατασκευών, γραμμές βιομηχανικής παραγωγής. Η οδηγία για τα μηχανήματα, η οποία αντικαταστάθηκε από τον νέο κανονισμό για τα μηχανήματα, καθόρισε τις απαιτήσεις υγείας και ασφάλειας για τα μηχανήματα. Ο εν λόγω νέος κανονισμός για τα μηχανήματα θα διασφαλίζει ότι η νέα γενιά μηχανημάτων θα εγγυάται την ασφάλεια των χρηστών/χρηστριών και των καταναλωτών/καταναλωτριών, και ενθαρρύνει την καινοτομία. Ενώ ο κανονισμός για την τεχνητή νοημοσύνη αντιμετωπίζει τους κινδύνους ασφάλειας των συστημάτων ΤΝ, ο νέος κανονισμός για τα μηχανήματα θα διασφαλίζει την ασφαλή ενσωμάτωση του συστήματος ΤΝ στο σύνολο των μηχανημάτων. Οι επιχειρήσεις θα πρέπει να διενεργούν μία μόνο αξιολόγηση της συμμόρφωσης.
Επιπλέον, ο νέος κανονισμός για τα μηχανήματα θα ανταποκρίνεται στις ανάγκες της αγοράς παρέχοντας μεγαλύτερη νομική σαφήνεια στις ισχύουσες διατάξεις, απλουστεύοντας τον διοικητικό φόρτο και το κόστος για τις εταιρείες μέσω των ψηφιακών μορφοτύπων για την τεκμηρίωση και της προσαρμογής των τελών αξιολόγησης της συμμόρφωσης για τις ΜΜΕ, διασφαλίζοντας παράλληλα τη συνοχή με το νομοθετικό πλαίσιο της ΕΕ για τα προϊόντα.
Το Ευρωπαϊκό Κοινοβούλιο και τα κράτη μέλη θα πρέπει να εγκρίνουν τις προτάσεις της Επιτροπής με αντικείμενο την ευρωπαϊκή προσέγγιση της τεχνητής νοημοσύνης και τα μηχανολογικά προϊόντα στο πλαίσιο της συνήθους νομοθετικής διαδικασίας. Μόλις εγκριθούν, οι κανονισμοί θα είναι άμεσα εφαρμόσιμοι σε ολόκληρη την ΕΕ. Παράλληλα, η Επιτροπή θα συνεχίσει να συνεργάζεται με τα κράτη μέλη για την υλοποίηση των δράσεων που εξαγγέλλονται στο συντονισμένο σχέδιο.
Η Επιτροπή επί σειρά ετών διευκολύνει και ενισχύει τη συνεργασία στον τομέα της τεχνητής νοημοσύνης σε ολόκληρη την ΕΕ με σκοπό να τονώσει την ανταγωνιστικότητά της και να διασφαλίσει την εμπιστοσύνη με βάση τις αξίες της ΕΕ.
Μετά τη δημοσίευση της ευρωπαϊκής στρατηγικής για την τεχνητή νοημοσύνη το 2018, και μετά από εκτενείς διαβουλεύσεις με τα ενδιαφερόμενα μέρη, η ομάδα εμπειρογνωμόνων υψηλού επιπέδου για την τεχνητή νοημοσύνη (HLEG) εκπόνησε τις «Κατευθυντήριες γραμμές για αξιόπιστη τεχνητή νοημοσύνη» το 2019, καθώς και κατάλογο αξιολόγησης της αξιοπιστίας της ΤΝ το 2020. Παράλληλα, το πρώτο συντονισμένο σχέδιο για την τεχνητή νοημοσύνη δημοσιεύτηκε τον Δεκέμβριο του 2018 ως κοινή δέσμευση με τα κράτη μέλη.
Η Λευκή Βίβλος για την Τεχνητή Νοημοσύνη της Επιτροπής, που δημοσιεύτηκε το 2020, παρουσιάζει ένα σαφές όραμα για την τεχνητή νοημοσύνη στην Ευρώπη: ένα οικοσύστημα αριστείας και εμπιστοσύνης, το οποίο διαμορφώνει το πλαίσιο για τη σημερινή πρόταση. Στη δημόσια διαβούλευση σχετικά με τη «Λευκή Βίβλο για την τεχνητή νοημοσύνη» υπήρξε αθρόα συμμετοχή από ολόκληρο τον κόσμο. Η Λευκή Βίβλος συνοδευόταν από την «Έκθεση σχετικά με τις συνέπειες της τεχνητής νοημοσύνης, του διαδικτύου των πραγμάτων και της ρομποτικής στην ασφάλεια και την ευθύνη», η οποία κατέληξε στο συμπέρασμα ότι η ισχύουσα νομοθεσία για την ασφάλεια των προϊόντων έχει ορισμένα κενά που έπρεπε να καλυφθούν, ιδίως στην οδηγία για τα μηχανήματα.
Πηγή: Ευρωπαϊκή Επιτροπή Ι Η γωνιά του Τύπου (https://bit.ly/3gnausa)