21 Μαΐου 2024

EE: «Πράσινο φως» για τους πρώτους κανόνες στην τεχνητή νοημοσύνη παγκοσμίως -Τι περιλαμβάνουν


To Eυρωπαϊκό Συμβούλιο ενέκρινε την Τρίτη έναν πρωτοποριακό νόμο με στόχο την εναρμόνιση των κανόνων για την τεχνητή νοημοσύνη, τη λεγόμενη «πράξη για την τεχνητή νοημοσύνη».

Η νομοθετική ρύθμιση ακολουθεί μια προσέγγιση «βάσει κινδύνου», που σημαίνει ότι όσο μεγαλύτερος είναι ο κίνδυνος πρόκλησης βλάβης στην κοινωνία, τόσο αυστηρότεροι είναι οι κανόνες.

Είναι ο πρώτος του είδους του στον κόσμο και μπορεί να θέσει ένα παγκόσμιο πρότυπο για τη ρύθμιση της τεχνητής νοημοσύνης (ΤΝ).

Ο νέος νόμος για την τεχνητή νοημοσύνη

Ο νέος νόμος αποσκοπεί στην προώθηση της ανάπτυξης και της υιοθέτησης ασφαλών και αξιόπιστων συστημάτων ΤΝ σε ολόκληρη την ενιαία αγορά της ΕΕ τόσο από ιδιωτικούς όσο και από δημόσιους φορείς. Παράλληλα, αποσκοπεί στη διασφάλιση του σεβασμού των θεμελιωδών δικαιωμάτων των πολιτών της ΕΕ και στην τόνωση των επενδύσεων και της καινοτομίας στον τομέα της τεχνητής νοημοσύνης στην Ευρώπη.

Η πράξη για την τεχνητή νοημοσύνη εφαρμόζεται μόνο σε τομείς που εμπίπτουν στο δίκαιο της ΕΕ και προβλέπει εξαιρέσεις, όπως για συστήματα που χρησιμοποιούνται αποκλειστικά για στρατιωτικούς και αμυντικούς σκοπούς, καθώς και για ερευνητικούς σκοπούς.

Ταξινόμηση των συστημάτων τεχνητής νοημοσύνης ως υψηλού κινδύνου και απαγορευμένες πρακτικές

Ο νέος νόμος κατηγοριοποιεί τα διάφορα είδη τεχνητής νοημοσύνης ανάλογα με τον κίνδυνο.

Τα συστήματα τεχνητής νοημοσύνης που παρουσιάζουν μόνο περιορισμένο κίνδυνο θα υπόκεινται σε πολύ ελαφρές υποχρεώσεις διαφάνειας, ενώ τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου θα εγκρίνονται μεν, αλλά θα υπόκεινται σε μια σειρά απαιτήσεων και υποχρεώσεων για να αποκτήσουν πρόσβαση στην αγορά της ΕΕ.

Συστήματα τεχνητής νοημοσύνης όπως, για παράδειγμα, η γνωστική χειραγώγηση της συμπεριφοράς και η κοινωνική βαθμολόγηση θα απαγορευτούν από την ΕΕ, επειδή ο κίνδυνος τους θεωρείται απαράδεκτος.

Ο νόμος απαγορεύει επίσης τη χρήση της ΤΝ για την προγνωστική αστυνόμευση με βάση την κατάρτιση προφίλ και τα συστήματα που χρησιμοποιούν βιομετρικά δεδομένα για την κατηγοριοποίηση των ανθρώπων σύμφωνα με συγκεκριμένες κατηγορίες, όπως η φυλή, η θρησκεία ή ο σεξουαλικός προσανατολισμός.

Μοντέλα τεχνητής νοημοσύνης γενικού σκοπού

Ο νόμος για την ΤΝ αφορά επίσης τη χρήση μοντέλων ΤΝ γενικού σκοπού (GPAI).

Τα μοντέλα GPAI που δεν ενέχουν συστημικούς κινδύνους θα υπόκεινται σε ορισμένες περιορισμένες απαιτήσεις, για παράδειγμα όσον αφορά τη διαφάνεια, αλλά εκείνα που ενέχουν συστημικούς κινδύνους θα πρέπει να συμμορφώνονται με αυστηρότερους κανόνες.

Για να διασφαλιστεί η ορθή εφαρμογή, δημιουργούνται διάφορα διοικητικά όργανα:
  • Γραφείο Τεχνητής Νοημοσύνης εντός της Επιτροπής για την επιβολή των κοινών κανόνων σε ολόκληρη την ΕΕ.
  • Μια επιστημονική ομάδα ανεξάρτητων εμπειρογνωμόνων για την υποστήριξη των δραστηριοτήτων επιβολής.
  • Ένα συμβούλιο με εκπροσώπους των κρατών μελών για να συμβουλεύει και να βοηθά την Επιτροπή και τα κράτη μέλη στη συνεπή και αποτελεσματική εφαρμογή της πράξης για την τεχνητή νοημοσύνη
  • ένα συμβουλευτικό φόρουμ για τα ενδιαφερόμενα μέρη που θα παρέχει τεχνική εμπειρογνωμοσύνη στο συμβούλιο και στην Επιτροπή
Κυρώσεις

Τα πρόστιμα για τις παραβάσεις της πράξης τεχνητής νοημοσύνης καθορίζονται ως ποσοστό του συνολικού ετήσιου κύκλου εργασιών της παραβάτριας εταιρείας κατά το προηγούμενο οικονομικό έτος ή ως προκαθορισμένο ποσό, ανάλογα με το ποιο είναι υψηλότερο. Οι ΜΜΕ και οι νεοσύστατες επιχειρήσεις υπόκεινται σε αναλογικά διοικητικά πρόστιμα.

Διαφάνεια και προστασία των θεμελιωδών δικαιωμάτων

Πριν από την ανάπτυξη ενός συστήματος ΤΝ υψηλού κινδύνου από ορισμένες οντότητες που παρέχουν δημόσιες υπηρεσίες, θα πρέπει να αξιολογηθεί ο αντίκτυπος στα θεμελιώδη δικαιώματα. Ο κανονισμός προβλέπει επίσης αυξημένη διαφάνεια όσον αφορά την ανάπτυξη και τη χρήση συστημάτων ΤΝ υψηλού κινδύνου.

Τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, καθώς και ορισμένοι χρήστες ενός συστήματος τεχνητής νοημοσύνης υψηλού κινδύνου που είναι δημόσιοι φορείς θα πρέπει να καταχωρίζονται στη βάση δεδομένων της ΕΕ για τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, ενώ οι χρήστες ενός συστήματος αναγνώρισης συναισθημάτων θα πρέπει να ενημερώνουν τα φυσικά πρόσωπα όταν εκτίθενται σε ένα τέτοιο σύστημα.

Μέτρα για την στήριξη της καινοτομίας

Ο νόμος για την ΤΝ προβλέπει ένα νομικό πλαίσιο φιλικό προς την καινοτομία και αποσκοπεί στην προώθηση της κανονιστικής μάθησης με βάση τα αποδεικτικά στοιχεία. Ο νέος νόμος προβλέπει ότι τα ρυθμιστικά sandboxes ΤΝ, που επιτρέπουν ένα ελεγχόμενο περιβάλλον για την ανάπτυξη, τη δοκιμή και την επικύρωση καινοτόμων συστημάτων ΤΝ, θα πρέπει επίσης να επιτρέπουν τη δοκιμή καινοτόμων συστημάτων ΤΝ σε πραγματικές συνθήκες.

ΒΑΣΙΛΗΣ ΚΑΛΤΣΑΣ
iefimerida.gr