ΓΔ: 1454.98 1.38% Τζίρος: 124.03 εκ. € Τελ. ενημέρωση: 17:25:02 ΣΤΟΙΧΕΙΑ ΑΓΟΡΑΣ
Φώτο: Shutterstock

Ρυθμιστικούς κανόνες για την Τεχνητή Νοημοσύνη επιβάλλει η ΕΕ

Ακόμη και απαγόρευση συγκεκριμένων εφαρμογών περιλαμβάνει η νέα ρύθμιση που υπερψηφίστηκε από το Ευρωπαϊκό Κοινοβούλιο. Για «πρωτιά της Ευρώπης» έκανε λόγω ο Τιερί Μπρετόν.

Την πρώτη προσπάθεια να τεθούν ρυθμιστικοί κανόνες στον τρόπο λειτουργίας και ανάπτυξης της Τεχνητής Νοημοσύνης προχώρησε το Ευρωπαϊκό Κοινοβούλιο. 

«Η Ευρώπη είναι αυτή τη στιγμή ένας παγκόσμιος ρυθμιστής προτύπων στην Τεχνητή Νοημοσύνη», έσπευσε να τονίσει ο Επίτροπος για την Εσωτερική Αγορά, Τιερί Μπρετόν, με ανάρτησή του στο Χ, ενώ η πρόεδρος της Ευρωβουλής, Ρομπέρτα Μετσόλα, χαρακτήρισε την απόφαση ως πρωτοποριακή, λέγοντας ότι θα επιτρέψει την καινοτομία, διασφαλίζοντας παράλληλα τα θεμελιώδη δικαιώματα. «Η Τεχνητή Νοημοσύνη είναι ήδη σε μεγάλο βαθμό μέρος της καθημερινής μας ζωής. Τώρα, θα είναι και μέρος της νομοθεσίας μας», σημείωσε με ανάρτησή της στα social media.

Όπως τονίζεται στην επίσημη ανακοίνωση του Ευρωπαϊκού Κοινοβουλίου, η εφαρμογή ρυθμιστικών κανόνων έχει ως στόχο να προστατεύσει τα θεμελιώδη δικαιώματα, τη δημοκρατία, το κράτος δικαίου και την περιβαλλοντική βιωσιμότητα από την ΑΙ υψηλού κινδύνου, ενισχύοντας παράλληλα την καινοτομία και καθιστώντας την Ευρώπη ηγέτη στον τομέα αυτό. Ο κανονισμός θεσπίζει υποχρεώσεις για την ΑΙ με βάση τους δυνητικούς κινδύνους και το επίπεδο των επιπτώσεών της.

Απαγόρευση εφαρμογών

Οι νέοι κανόνες απαγορεύουν ορισμένες εφαρμογές Τεχνητής Νοημοσύνης που απειλούν τα δικαιώματα των πολιτών, συμπεριλαμβανομένων των συστημάτων βιομετρικής κατηγοριοποίησης με βάση ευαίσθητα χαρακτηριστικά και της μη στοχευμένης «διαγραφές» εικόνων προσώπου από το διαδίκτυο ή βίντεο από κάμερες κλειστού κυκλώματος παρακολούθησης για τη δημιουργία βάσεων δεδομένων αναγνώρισης προσώπου.

Απαγορεύεται επίσης η αναγνώριση συναισθημάτων στο χώρο εργασίας και στα σχολεία, η κοινωνική βαθμολόγηση, η προγνωστική αστυνόμευση (όταν βασίζεται αποκλειστικά στη δημιουργία προφίλ ενός ατόμου ή στην αξιολόγηση των χαρακτηριστικών του) και η ΑΙ που χειραγωγεί την ανθρώπινη συμπεριφορά ή εκμεταλλεύεται τα τρωτά σημεία των ανθρώπων.

Συστήματα υψηλού κινδύνου

Σαφείς υποχρεώσεις προβλέπονται επίσης για άλλα συστήματα ΑΙ υψηλού κινδύνου (λόγω της σημαντικής δυνητικής βλάβης που μπορεί να προκαλέσουν στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, τη δημοκρατία και το κράτος δικαίου). Παραδείγματα χρήσεων ΑΙ υψηλού κινδύνου περιλαμβάνουν κρίσιμες υποδομές, εκπαίδευση και επαγγελματική κατάρτιση, απασχόληση, βασικές ιδιωτικές και δημόσιες υπηρεσίες (π.χ. υγειονομική περίθαλψη, τράπεζες), ορισμένα συστήματα επιβολής του νόμου, μετανάστευσης και διαχείρισης των συνόρων, δικαιοσύνης και δημοκρατικών διαδικασιών (π.χ. επηρεασμός εκλογών).

Τα συστήματα αυτά πρέπει να αξιολογούν και να μειώνουν τους κινδύνους, να τηρούν αρχεία καταγραφής χρήσης, να είναι διαφανή και ακριβή και να εξασφαλίζουν την ανθρώπινη εποπτεία. Οι πολίτες θα έχουν το δικαίωμα να υποβάλλουν καταγγελίες σχετικά με τα συστήματα ΑΙ και να λαμβάνουν εξηγήσεις σχετικά με τις αποφάσεις που βασίζονται σε συστήματα ΑΙ υψηλού κινδύνου και επηρεάζουν τα δικαιώματά τους.

Διαφάνεια και μέτρα για ΜμΕ

Τα συστήματα Τεχνητής Νοημοσύνης Γενικού Σκοπού (GPAI) και τα μοντέλα GPAI στα οποία βασίζονται, πρέπει να πληρούν ορισμένες απαιτήσεις διαφάνειας, συμπεριλαμβανομένης της συμμόρφωσης με τη νομοθεσία της ΕΕ περί πνευματικών δικαιωμάτων και της δημοσίευσης λεπτομερών περιλήψεων του περιεχομένου που χρησιμοποιείται για την εκπαίδευση. Τα πιο ισχυρά μοντέλα GPAI που θα μπορούσαν να θέσουν συστημικούς κινδύνους θα αντιμετωπίσουν πρόσθετες απαιτήσεις, συμπεριλαμβανομένης της εκτέλεσης αξιολογήσεων μοντέλων, της εκτίμησης και του μετριασμού των συστημικών κινδύνων και της υποβολής εκθέσεων σχετικά με περιστατικά.

Επιπλέον, οι τεχνητές ή παραποιημένες εικόνες, ο ήχος ή το περιεχόμενο βίντεο ("deepfakes") πρέπει να επισημαίνονται σαφώς ως τέτοια.
Σε εθνικό επίπεδο θα πρέπει να δημιουργηθούν ρυθμιστικά sandboxes και δοκιμές στον πραγματικό κόσμο, και να καταστούν προσβάσιμες στις ΜμΕ και τις νεοφυείς επιχειρήσεις, για την ανάπτυξη και την εκπαίδευση καινοτόμων ΑΙ πριν από τη διάθεσή τους στην αγορά.

Οι εξαιρέσεις

Η χρήση συστημάτων βιομετρικής ταυτοποίησης (RBI) από την επιβολή του νόμου απαγορεύεται καταρχήν. Το RBI "πραγματικού χρόνου" μπορεί να αναπτυχθεί μόνο εάν τηρούνται αυστηρές εγγυήσεις, π.χ. η χρήση του είναι περιορισμένη χρονικά και γεωγραφικά και υπόκειται σε ειδική προηγούμενη δικαστική ή διοικητική άδεια. Τέτοιες χρήσεις μπορεί να περιλαμβάνουν, για παράδειγμα, τη στοχευμένη αναζήτηση ενός αγνοούμενου προσώπου ή την πρόληψη τρομοκρατικής επίθεσης. Η χρήση τέτοιων συστημάτων εκ των υστέρων ("post-remote RBI") θεωρείται περίπτωση χρήσης υψηλού κινδύνου, η οποία απαιτεί δικαστική άδεια και συνδέεται με ποινικό αδίκημα.

Σημειώνεται ότι υπέρ της νέας νομοθεσίας ψήφισαν 523 βουλευτές, κατά 46 και υπήρξαν και 49 αποχές. 

Google news logo Ακολουθήστε το Business Daily στο Google news

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΔΙΕΘΝΗ

Αυστηρότερο πλαίσιο για την Τεχνητή Νοημοσύνη θέλει το Ευρωκοινοβούλιο

Οι ευρωβουλευτές θέλουν όποια εταιρεία χρησιμοποιεί εργαλεία γενετικής τεχνητής νοημοσύνης να αποκαλύπτει υλικό με κατοχυρωμένα δικαιώματα πνευματικής ιδιοκτησίας το οποίο χρησιμοποιήθηκε για την εκπαίδευση των συστημάτων.
kainotomia, innovation
ΤΕΧΝΟΛΟΓΙΑ

Η Ελλάδα εντάσσεται στο ευρωπαϊκό δίκτυο κόμβων καινοτομίας

Οι Ελληνικοί κόμβοι του Δικτύου θα δραστηριοποιηθούν σε τεχνολογικούς τομείς όπως: Τεχνητή Νοημοσύνη, Κυβερνοασφάλεια, Διαδίκτυο των Πραγμάτων, 5G, big data analysis, blockchain σε συνδυασμό με τομείς πολιτικής.
Metrita, Xrimata, Cash, Money
ΔΙΕΘΝΗ

Ευρωπαϊκή συμφωνία για αναπτυξιακό σχέδιο 6 δισ. ευρώ στα Δ. Βαλκάνια

Το αναπτυξιακό σχέδιο προβλέπει τη διάθεση 2 δισ. ευρώ σε επιχορηγήσεις και 4 δισ. ευρώ σε δάνεια για την περίοδο 2024-2027 υποστηρίζοντας επενδύσεις σε υποδομές και πράσινη και ψηφιακή μετάβαση.