Live τώρα    
20°C Αθήνα
ΑΘΗΝΑ
Ελαφρές νεφώσεις
20 °C
15.6°C21.5°C
2 BF 55%
ΘΕΣΣΑΛΟΝΙΚΗ
Ελαφρές νεφώσεις
19 °C
16.0°C20.6°C
2 BF 78%
ΠΑΤΡΑ
Αίθριος καιρός
17 °C
15.0°C17.1°C
1 BF 77%
ΗΡΑΚΛΕΙΟ
Ελαφρές νεφώσεις
16 °C
15.8°C17.2°C
2 BF 94%
ΛΑΡΙΣΑ
Ελαφρές νεφώσεις
13 °C
12.9°C15.1°C
0 BF 100%
Η Τεχνητή Νοημοσύνη διχάζει τους ευρωπαϊκούς θεσμούς
  • Μείωση μεγέθους γραμματοσειράς
  • Αύξηση μεγέθους γραμματοσειράς
Εκτύπωση

Η Τεχνητή Νοημοσύνη διχάζει τους ευρωπαϊκούς θεσμούς

133140376a_AI_EXPO.jpg

Πριν από λίγους μήνες, δύο Γερμανοί Ευρωβουλευτές ανέβηκαν στο βήμα του Ευρωκοινοβουλίου και έβγαλαν από έναν λόγο καθένας. Οι συνάδελφοί τους εξεπλάγησαν στο τέλος όταν έμαθαν ότι τους λόγους δεν είχαν γράψει οι ίδιοι ή οι συνεργάτες τους, αλλά το ChatGPT. Το οποίο ChatGPT, πέραν όλων των άλλων θαυμαστών ή όχι και τόσο που πραγματοποιεί, έχει προκαλέσει έναν τεράστιο πονοκέφαλο στους Ευρωπαίους νομοθέτες, που νόμιζαν πριν βγει ότι είχαν τα νομικά εργαλεία για να ρυθμίσουν και να ελέγξουν επαρκώς την Τεχνητή Νοημοσύνη.

Το βασικό πρόβλημα με την Τεχνητή Νοημοσύνη, όμως, όπως ήθελαν να καταδείξουν και τα κατάφεραν οι δύο Γερμανοί Ευρωβουλευτές, είναι ότι μαθαίνει από τον εαυτό της. Και μαθαίνει ταχύτατα, πολύ ταχύτερα προφανώς απ’ ό,τι οι άνθρωποι, αλλιώς δεν θα τη χρειαζόμασταν. Το ChatGPT έχει μάθει ήδη να μας μιμείται καλύτερα απ’ όσο μπορούμε να μιμηθούμε εμείς τον εαυτό μας. Δημιουργήσαμε, λοιπόν, κάτι το οποίο μοιάζει να είναι ανεξέλεγκτο και το ξέραμε. Και τώρα θέλουμε να το ελέγξουμε και να το περιορίσουμε νομοθετικά. Γίνεται αυτό;

Η Ευρωπαϊκή Επιτροπή, το Ευρωπαϊκό Κοινοβούλιο και το Συμβούλιο της Ευρώπης πίστευαν ότι γίνεται. Το 2021 η Κομισιόν πρότεινε τον Νόμο περί Τεχνητής Νοημοσύνης, ο οποίος είχε ως βασικό στόχο να περιορίσει συγκεκριμένα χαρακτηριστικά της, όπως η κοινωνική βαθμολόγηση, ο χειρισμός μέσω των αλγόριθμων και η αναγνώριση προσώπων. Είχε επίσης ως στόχο να δεσμεύσει τους δημιουργούς προγραμμάτων Τεχνητής Νοημοσύνης σε αυστηρότερες προδιαγραφές αναφορικά με τη διαφάνεια υπό την οποία λειτουργούν, την ασφάλειά τους, αλλά και τους ελέγχους των προγραμμάτων από πραγματικούς ανθρώπους. Το ChatGPT τα άλλαξε όλα. Αυτό το είδος Τεχνητής Νοημοσύνης, που ονομάζεται μεγάλο γλωσσικό μοντέλο, μπορεί να κάνει τα πάντα: Οι άνθρωποι μπορούν να το βάλουν να γράψει ποιήματα ή fake news ή, όπως παραδέχτηκε ένας Κολομβιανός δικαστής, ακόμη και αποφάσεις δικαστηρίων. Άλλα μοντέλα, που βασίζονται στις εικόνες και όχι στις λέξεις, κάνουν ακριβώς το ίδιο δημιουργώντας από καρτούν μέχρι ψεύτικες φωτογραφίες πολιτικών.

Γράφουν και ξαναγράφουν ρυθμίσεις

Η Τεχνητή Νοημοσύνη δεν έχει ηθική αντίληψη του κόσμου, δεν ξεχωρίζει την αλήθεια από το ψέμα και δεν είναι απόλυτα αξιόπιστη. Επιπλέον, το ChatGPT και άλλα λογισμικά του είδους του μπορούν να κάνουν απίστευτα πράγματα, αλλά δεν υπάρχει κάποιος ιδιαίτερος σκοπός για τον οποίο δημιουργήθηκαν. Αυτό συνέβη επειδή κάποιος έφτασε στο σημείο να μπορεί να τα φτιάξει και ακολούθως να τα δοκιμάσει στον πραγματικό κόσμο.

Τα αρχικά σχέδια της Ε.Ε. για τη νομοθεσία που θα ελέγχει και θα περιορίζει την Τεχνητή Νοημοσύνη ήδη αλλάζουν και τα προσχέδια ξαναγράφονται. Την αρχή έκανε το Συμβούλιο της Ευρώπης, εγκρίνοντας το δικό του προσχέδιο τον περασμένο Δεκέμβριο. Σκοπός είναι η ανάθεση στην Ευρωπαϊκή Επιτροπή της θέσπισης κυβερνοασφάλειας, διαφάνειας και διαχείρισης κινδύνου για λογισμικά Τεχνητής Νοημοσύνης γενικής χρήσης. Το Ευρωπαϊκό Κοινοβούλιο ακολουθεί. Τον Φεβρουάριο προτάθηκε από τους νομοθέτες ότι σύνθετα γλωσσικά συστήματα όπως το ChatGPT θα έπρεπε να ενταχθούν στη λίστα υψηλού κινδύνου. Κι αυτό κυρίως για να αποφευχθεί η διασπορά ψευδών ειδήσεων σε μεγάλη κλίμακα, κάτι που μπορούν να κάνουν με τεράστια ευκολία. Φυσικά, η πρόταση αντιμετωπίστηκε με σκεπτικισμό από πολλές πλευρές, κυρίως από τα δεξιά του Ευρωκοινοβουλίου. Κάποιοι, όμως, ακόμη και στις πιο μετριοπαθείς πολιτικές πτέρυγες, εξέφρασαν τις ανησυχίες τους ότι αν περάσει ο νόμος για το ChatGPT, πολλά άλλα ακίνδυνα λογισμικά κινδυνεύουν να ενταχθούν στις λίστες υψηλού κινδύνου.

Στον αντίποδα υπάρχουν εκείνοι που πιστεύουν ότι το προτεινόμενο νομοσχέδιο δεν ακουμπάει καν την επιφάνεια του προβλήματος και ότι χρειάζεται πολύ πιο συγκεκριμένη και αυστηρή αντιμετώπιση. Ζητούν να μην περιοριστεί η νομοθεσία μόνο στα λογισμικά λόγου, αλλά να επεκταθεί σε όλα τα λογισμικά Τεχνητής Νοημοσύνης γενικής χρήσης, καθώς μπορούν, κατά την άποψή τους, να κάνουν την ίδια και μεγαλύτερη ζημιά. Το βασικό ζητούμενο φυσικά δεν είναι να περιοριστούν τα ίδια τα λογισμικά -αυτά δεν αποτελούν νομικές οντότητες, όχι ακόμη τουλάχιστον-, αλλά οι εταιρείες που τα δημιουργούν και όσοι τα χρησιμοποιούν. Η έμφαση στους περιορισμούς δίνεται φυσικά στους δημιουργούς όσο οι χρήστες απλώς παίζουν με την τεχνολογία επί του παρόντος.

Επιπλέον, οι νομοθέτες της Ε.Ε. προειδοποιούν τους επαγγελματίες στους τομείς της εκπαίδευσης, του τραπεζικού συστήματος και του νόμου ότι «πρέπει να προσέχουν όταν χρησιμοποιούν τέτοιου είδους συστήματα, καθώς δημιουργούν σοβαρούς κινδύνους για τα θεμελιώδη δικαιώματα των ατόμων». Φυσικά, με προειδοποιήσεις δεν γίνεται δουλειά και η Ε.Ε. το ξέρει πολύ καλά αυτό. Δεν είναι τόσο απλό όμως να βάλει τις νομοθετικές κόκκινες γραμμές της, καθώς ξέρει ότι θα ακολουθήσουν ατελείωτες διαπραγματεύσεις και έως ότου αυτές ολοκληρωθούν, η Τεχνητή Νοημοσύνη θα έχει περάσει σε άλλο επίπεδο και θα χρειάζεται νέες ρυθμίσεις.

Σε γενικές γραμμές η κατάσταση θυμίζει ένα σπιράλ που δεν φαίνεται να τελειώνει πουθενά, ένα ιδιότυπο κουτί της Πανδώρας, από το οποίο τα οφέλη και οι κίνδυνοι βγαίνουν εναλλάξ και ισόποσα. Όσο η Ευρωπαϊκή Επιτροπή, το Ευρωπαϊκό Συμβούλιο και το Ευρωκοινοβούλιο θα διαπραγματεύονται μεταξύ τους για την τελική μορφή που θα πάρει η νομοθεσία για την Τεχνητή Νοημοσύνη, οι εταιρείες τεχνολογίας, μικρές και μεγάλες, παρακολουθούν με προσοχή, διότι έχουν και ίδιον συμφέρον. Η δική τους άποψη φυσικά είναι ότι τεχνολογίες όπως το ChatGPT δεν θα έπρεπε να ενταχθούν στη λίστα υψηλού κινδύνου, καθώς χρησιμοποιούνται κυρίως για βοηθητικούς και ακίνδυνους σκοπούς από τον κόσμο. Το γεγονός ότι η Microsoft είναι ο βασικός επενδυτής στην εταιρεία που δημιούργησε το ChatGPT, την OpenAI, βοηθά προφανώς στο να σταθεί ο κολοσσός υποστηρικτικά στο πλευρό του. Το βασικό επιχείρημα των εταιρειών είναι ότι οι Ευρωπαίοι δεν θα πρέπει να στερηθούν τις υπηρεσίες της Τεχνητής Νοημοσύνης από φόβο και μόνο. Το ίδιο το ChatGPT, πάντως, όταν ρωτήθηκε από το Politico, απάντησε ότι, κατά την άποψή του, θα έπρεπε να ενταχθεί στη λίστα υψηλού κινδύνου λόγω της δυνατότητάς του να παράγει επικίνδυνο και παραπλανητικό περιεχόμενο…

Χρειάζεται ενιαία νομοθεσία

Οσο αυτά συμβαίνουν στην Ευρώπη, οι ΗΠΑ αντιμετωπίζουν ανάλογα προβλήματα. Η ομοσπονδιακή κυβέρνηση διστάζει να περάσει μια ενιαία νομοθεσία θέτοντας σαφείς περιορισμούς στα λογισμικά Τεχνητής Νοημοσύνης κι έτσι αναλαμβάνουν να το κάνουν οι επιμέρους πολιτείες, όπως το Κολοράντο και η Καλιφόρνια.

Ο βασικός προβληματισμός στις ΗΠΑ έχει περισσότερο να κάνει με τον τρόπο που η Τεχνητή Νοημοσύνη επηρεάζει τις επιλογές που γίνονται σε ζητήματα όπως η ασφάλιση, τα τραπεζικά δάνεια, η περίθαλψη κ.λπ. Όσο η χρήση αλγορίθμων γίνεται όλο και πιο διαδεδομένη, καταδεικνύεται ότι ο τρόπος με τον οποίο αυτοί κάνουν τις επιλογές τους δεν είναι και τόσο αμερόληπτος και «δίκαιος» όσο θα θέλαμε όταν τους κατασκευάσαμε. Ένα παράδειγμα είναι αυτό που συνέβη στα νοσοκομεία του Μέριλαντ, όπου αποδείχθηκε ότι ο αλγόριθμος παρέκαμπτε τους μαύρους ασθενείς στις λίστες για μεταμόσχευση νεφρού. Και αυτό διότι προϋπέθετε ότι είναι πιο ανθεκτικοί από τους λευκούς...

Η διόρθωση των αλγορίθμων δεν είναι κάτι απλό, ούτε αυτόματο, με δεδομένο μάλιστα ότι οι περισσότερες εταιρείες και οργανισμοί που τους χρησιμοποιούν δεν δημοσιεύουν τις λεπτομέρειες για τα κριτήρια επιλογής με τα οποία είναι προγραμματισμένοι. Η ενιαία νομοθεσία γίνεται φανερό ότι είναι απαραίτητη, προκειμένου να μην περάσουν τα κοινωνικά και φυλετικά και έμφυλα στερεότυπα από τα χέρια των ανθρώπων σε εκείνα των λογισμικών.

Η πλατφόρμα ενοικίασης κατοικιών Airbnb έχει ήδη πατεντάρει ένα λογισμικό το οποίο αναλύει τον υποψήφιο πελάτη και προβλέπει την καταναλωτική του συμπεριφορά, με βάση διάφορες πληροφορίες που συλλέγει για αυτόν, μεταξύ άλλων, και από τα social media. Μετά το λογισμικό αποφασίζει πόσα πρέπει να πληρώνει ο πελάτης, αλλά και σε ποια από τα ενοικιαζόμενα μπορεί να έχει πρόσβαση. Ο ίδιος δεν θα μάθει ποτέ γιατί το λογισμικό δεν του επέτρεψε να νοικιάσει εκείνο το σπίτι που ήθελε, αλλά κυρίως δεν θα μάθει ποτέ τα κριτήρια με τα οποία έγινε αυτή η διάκριση. Με τον ίδιο τρόπο δεν θα μάθει ποτέ και γιατί τα δικά του ασφάλιστρα είναι πολύ υψηλότερα από κάποιου άλλου ενώ δεν έχει προκαλέσει ποτέ ατύχημα, ή γιατί δεν πήρε εκείνο το νεφρό ενώ ήταν ψηλά στη λίστα. Επιπλέον, οι καταναλωτές δεν έχουν πλέον καμία δυνατότητα να διαμαρτυρηθούν, καθώς το σύστημα το οποίο αντιμετωπίζουν είναι απόλυτα απρόσωπο και θεωρητικά αδιάβλητο.

Ενα από τα παράδοξα της υπόθεσης είναι ότι όσο ευρύτερη γίνεται η χρήση της Τεχνητής Νοημοσύνης τόσο περισσότερο το κοινό δυσπιστεί προς αυτήν. Και όσο βγαίνουν στη δημοσιότητα έρευνες που δείχνουν ότι τελικά οι αλγόριθμοι δεν είναι ούτε αδιάβλητοι αλλά ούτε και αλάνθαστοι, ενώ δεν λειτουργούν απαραίτητα και για το καλό μας, τόσο αυτή η δυσπιστία μεγαλώνει. Και μαζί της οι φωνές που ζητάνε να απαγορευτούν εντελώς τα λογισμικά που είναι πιθανό να δράσουν επιβλαβώς. Αλλά και να περιοριστεί η κοινωνική βαθμολόγηση από λογισμικά που αντιμετωπίζουν τον καταναλωτή ακριβώς όπως το ίδιο το προϊόν, χωρίς κανέναν σεβασμό στην ιδιωτικότητά του. Θα πρέπει, λένε, όλα τα λογισμικά να διέπονται από μια νομοθεσία που θα παρέχει ισχυρά δικαιώματα στους ανθρώπους των οποίων η ζωή επηρεάζεται από αυτά. Να έχουν δικαίωμα να γνωρίζουν τα κριτήρια με τα οποία αξιολογήθηκαν και να αποζημιώνονται από τις εταιρείες σε περίπτωση που τα συμφέροντά τους υποστούν βλάβη από λάθος του λογισμικού ή και λόγω διάκρισης.

Το Ευρωκοινοβούλιο βρίσκεται μπροστά σε μια κομβική στιγμή, καθώς αν δεν καταφέρει να πάρει τώρα δραστικές αποφάσεις, πιθανότατα μετά θα είναι αργά και τα πράγματα θα ξεφύγουν από κάθε έλεγχο. Το ChatGPT δεν θα γράφει για πάντα μόνο ποιήματα και πολύ σύντομα δεν θα είναι μόνο του.

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΓΝΩΜΕΣ

ΠΕΡΙΣΣΟΤΕΡΑ

EDITORIAL

ΑΝΑΛΥΣΗ

SOCIAL