18/03/2024
Ο Ευρωπαϊκός Κανονισμός για την Τεχνητή Νοημοσύνη (AI Act)
Ο Ευρωπαϊκός Κανονισμός για την Τεχνητή Νοημοσύνη (AI Act), έρχεται να θέσει ένα νέο ρυθμιστικό πλαίσιο για την ανάπτυξη και χρήση της τεχνητής νοημοσύνης στην Ευρωπαϊκή Ένωση. Στόχος του κανονισμού είναι να διασφαλίσει ότι τα συστήματα τεχνητής νοημοσύνης αναπτύσσονται και χρησιμοποιούνται με τρόπο που σέβεται τα θεμελιώδη ανθρώπινα δικαιώματα, την ασφάλεια και τις αξίες της Ε.Ε.
Ο κανονισμός ακολουθεί μια προσέγγιση ρύθμισης των συστημάτων τεχνητής νοημοσύνης με βάση τους κινδύνους που προκύπτουν από αυτά για την κοινωνία και τους ανθρώπους. Χωρίζει τα συστήματα Τεχνητής Νοημοσύνης σε 5 κατηγορίες, ανάλογα με το επίπεδο κινδύνου που ενέχουν:
Κατηγορίες συστημάτων Τεχνητής Νοημοσύνης:
- Απαγορευμένα: Συστήματα Τεχνητής Νοημοσύνης με “υπερβολικούς κινδύνους” (π.χ. χειραγώγηση, εκμετάλλευση), τα οποία και απαγορεύονται έως τέλος 2024.
- Υψηλού κινδύνου: Συστήματα με σημαντικό αντίκτυπο σε ασφάλεια, υγεία, θεμελιώδη δικαιώματα, τα οποία και έχουν αυστηρές απαιτήσεις πριν την είσοδο τους στην αγορά της Ε.Ε. (π.χ. υγεία, υποδομές, εκπαίδευση, εργασία).
- Χαμηλού κινδύνου: Συστήματα Τεχνητής Νοημοσύνης όπως Ψηφιακοί Βοηθοί (chatbots) που οφείλουν να είναι διαφανή στους χρήστες τους.
- Ελάχιστου κινδύνου: Πλειονότητα Συστημάτων Τεχνητής Νοημοσύνης που δεν εμπίπτουν στις παραπάνω κατηγορίες και τα οποία έχουν την δυνατότητα ελεύθερης ανάπτυξης χωρίς ρυθμίσεις.
- Γενικού σκοπού: Συστήματα Τεχνητής Νοημοσύνης με ευρείες δυνατότητες και δυνητικό συστημικό κίνδυνο (π.χ. Generative AI chatbots) τα οποία και θα χρήζουν ξεχωριστής αντιμετώπισης.
Ο κανονισμός θέτει διαφορετικές απαιτήσεις συμμόρφωσης για κάθε κατηγορία συστημάτων Τεχνητής Νοημοσύνης. Για παράδειγμα, τα συστήματα υψηλού κινδύνου θα πρέπει να πληρούν αυστηρές απαιτήσεις πριν εισέλθουν στην αγορά της ΕΕ, ενώ τα συστήματα χαμηλού κινδύνου θα έχουν λιγότερες απαιτήσεις.
Είναι σημαντικό οι οργανισμοί και οι επιχειρήσεις που αναπτύσσουν ή χρησιμοποιούν συστήματα τεχνητής νοημοσύνης να αξιολογήσουν σε ποια κατηγορία ανήκουν τα συστήματά τους και να λάβουν τα απαραίτητα μέτρα για να διασφαλίσουν την συμμόρφωσή τους με τον κανονισμό.
Βήματα για τη συμμόρφωση ενός οργανισμού:
- Χαρτογράφηση συστημάτων: Δημιουργία μητρώου με όλα τα “Συστήματα Τεχνητής Νοημοσύνης” και αξιολόγηση του ρόλου τους στην αλυσίδα διαδικασιών του οργανισμού / επιχείρησης (χρήστης, προγραμματιστής, εισαγωγέας, διανομέας).
- Αξιολόγηση κινδύνου: Κατηγοριοποίηση των συστημάτων βάσει κινδύνου για τον προγραμματισμό των διαδικασιών συμμόρφωσης.
- Ανάλυση αποκλίσεων: Αξιολόγηση τρέχουσας συμμόρφωσης και κατάρτιση σχεδίου δράσης.
- Εναρμόνιση και τεκμηρίωση: Λεπτομερής αξιολόγηση για τα Συστήματα Τεχνητής Νοημοσύνης υψηλού κινδύνου, τεκμηρίωση συμμόρφωσης και λήψη μέτρων διαχείρισης δεδομένων και διαφάνειας.
- Εκπαίδευση: Δημιουργία προγράμματος εκπαίδευσης προσωπικού.
- Περιβάλλον Δοκιμών: Δυνατότητα δοκιμής καινοτόμων λύσεων Τεχνητής Νοημοσύνης σε ελεγχόμενο περιβάλλον.
- Διαρκής ενημέρωση: Παρακολούθηση νέων κατευθυντήριων γραμμών από Ε.Ε. και ελληνική ρυθμιστική αρχή για την Τεχνητή Νοημοσύνη.
Προθεσμίες:
- Άμεση ισχύς για κράτη-μέλη.
- Tέλος 2024: Απαγόρευση συστημάτων υψηλού κινδύνου.
- 6-24 μήνες: Προσαρμογή οργανισμών και επιχειρήσεων.
Σημείωση:
- Το AI Act είναι ένα πολύπλοκο νομικό κείμενο.
- Η παρούσα περίληψη δεν αποτελεί νομική συμβουλή.
- Συνιστάται η μελέτη του κανονισμού από νομικούς συμβούλους για την πλήρη κατανόηση των υποχρεώσεων που απορρέουν από αυτόν.
Χιώτης Χρήστος
Υπεύθυνος Ψηφιακών Εφαρμογών Σωματείο “ΔΙΑΖΩΜΑ”