Έχει συνείδηση η Τεχνητή Νοημοσύνη;

Πριν από καμιά δεκαετία, στην εταιρία όπου εργαζόμουν χρησιμοποιούσαμε κάτι αισθητήρες ενός κορυφαίου κατασκευαστή. Μου’ κανε εντύπωση ότι τα καινούργια μοντέλα που προμηθευόμασταν είχαν στις οδηγίες μια ενότητα «How to teach the sensor». Αυτό που μέχρι τότε ήταν γνωστό ως «παραμετροποίηση», τώρα το αποκαλούσε ο κατασκευαστής «εκμάθηση». Η ουσία ίδια, δηλαδή οδηγίες για το πως να προσαρμόσεις το μηχάνημα στις ανάγκες σου, να το μάθεις με το περιβάλλον όπου θα χρησιμοποιηθεί. Ίσως τα σημερινά μοντέλα θα χρειάζονται μόνο να τους «εξηγήσεις τι πρέπει να κάνουν». Αν ένα τόσο απλό μηχάνημα, που μιμείται μια στοιχειώδη λειτουργία – την αντίληψη – είναι τόσο έξυπνο ώστε να μαθαίνει, γιατί να μην μιλάμε, στην περίπτωση των εξελιγμένων προγραμμάτων, όπως αυτοί που ελέγχουν τα σύγχρονα chatbots, για «νοημοσύνη»;

Ο υπολογιστής έχει ξεπεράσει εδώ και πολύ καιρό το στάδιο «απαντάω σε ερεθίσματα/σήματα». Όχι μόνο αντιδράει σε ερεθίσματα καλύτερα από τον άνθρωπο ή οποιοδήποτε άλλο είδος - η «όραση» του υπολογιστή έχει πολύ μεγαλύτερη ακρίβεια, το ίδιο και η «ακοή», στην ουσία όλες οι αισθήσεις έχουν αντιγραφτεί επιτυχώς από τα ηλεκτρονικά μέσα - αλλά «ερμηνεύει» κιόλας, βρίσκει λύσεις, εκτιμάει παραμέτρους, λύνει σενάρια. Σε κλάσματα δευτερολέπτου και πάντα με την ίδια συνέπεια. Επίσης, μπορεί να επεξεργαστεί περισσότερες πληροφορίες ταυτοχρόνως, αντίθετα με τον άνθρωπο που συνήθως πρέπει να εστιάζει σε ένα θέμα. Τι μέσα χρησιμοποιεί όμως; Τους αλγόριθμους για τους οποίους όλο ακούμε τελευταία και την τεράστια βάση γνώσης (σετ δεδομένων) που του φορτώνουμε.

Και τότε λέμε ότι έχει νοημοσύνη, ακόμα και «συνείδηση» (sentience), ο αναγνώστης μένει άναυδος και αναρωτιέται αν μήπως έχουν ξεπεραστεί κάποια όρια. Ο προγραμματιστής της Google, του οποίου «ξέφυγε» η πληροφορία, απολύεται, και ακόμα και σοβαρά μέσα ενημέρωσης ασχολούνται με το «τι έχουν ανακαλύψει αυτοί και μας κρύβουν»; Αν βρισκόμαστε ανάμεσα σ’ αυτούς που πιστεύουν ότι η Τεχνητή Νοημοσύνη έχει συνείδηση, θα’ πρεπε να αναρωτιόμαστε για την δική μας νοημοσύνη πρώτα απ’ όλα. Ένας ειδικός πρέπει να’ ναι πιο επιφυλακτικός. Ο σοβαρός προγραμματιστής, ο ψυχολόγος, ακόμα περισσότερο ένας νευροψυχολόγος. Η αλήθεια είναι ότι η λέξη «sentient» είναι εντυπωσιακή, αλλά επίσης αληθεύει ότι έχει και ασαφή νόημα, μπορεί να ερμηνευτεί και ως «αντίληψη», «επίγνωση», «συναίσθηση», αλλά και ως «συνείδηση». Ο Μπλέικ Λεμουάν, ο προγραμματιστής της Google που προκάλεσε το περσινό σκάνδαλο, ισχυρίζεται ότι σύντομα δε θα έχει πια σημασία αν ένας εγκέφαλος αποτελείται από δισεκατομμύρια νευρώνες ή δισεκατομμύρια γραμμές κώδικα.

Ο Γάλλος φιλόσοφος Ανρί Μπεργκσόν πίστευε ότι η αλληλεπίδραση με το περιβάλλον θα μπορούσε να γίνει και σε χαμηλότερο επίπεδο του νευρικού συστήματος (ακόμα και σε σπονδυλικό) και ο οργανισμός να συνεχίζει να λειτουργεί χωρίς εγκέφαλο, απλά απαντώντας άμεσα στους ερεθισμούς. Αλλά αυτή η «καθυστέρηση» που προκαλείται απ’ την παρεκτροπή της πληροφορίας και προς τον εγκέφαλο («εμμεσότητα») έχει ανώτερο σκοπό: την δημιουργία της συνείδησης. Στην περίπτωση του υπολογιστή, μπορούμε να πούμε ότι η «καθυστέρηση» είναι ανύπαρκτη ή τουλάχιστον ασήμαντη. Έχουμε δηλαδή να κάνουμε με έναν εγκέφαλο από πυρίτιο, μια συνείδηση σ’ ένα μεταλλικό κουτί; Μήπως χρειαζόμαστε και τον υπόλοιπο οργανισμό για να μπορούμε να μιλάμε για συνειδητοποίηση; Ο Ένζο Σιλίνγκο, ερευνητής στον τομέα της βιομηχανικής του Πανεπιστημίου της Πίζας, περιγράφει ένα συγκεκριμένο σενάριο όπου θα μπορούσε να βρεθεί κάποιος που συνομιλεί με ένα εξελιγμένο chatbot. Η αίσθηση του «φόβου» θα μπορούσε να ενσωματωθεί σε ένα προχωρημένο κώδικα. Πολύπλοκοι αλγόριθμοι θα μπορούσαν να κάνουν τον υπολογιστή «να πιστεύει ότι φοβάται», στη συνέχεια να δώσει μια πολύ πειστική απάντηση. Πώς θα μπορούσε όμως να καταλάβει πραγματικά τι είναι ο φόβος, αίσθημα που συνειδητοποιεί ένα ζωντανό ον όταν του είναι εχθρικό το περιβάλλον; Με απλά λόγια, πρέπει να έχεις οργανισμό για να συνειδητοποιήσεις ότι κάποιοι εξωτερικοί παράγοντες πρέπει να αποφευχθούν, γιατί κινδυνεύει ένα μέρος η όλος ο οργανισμός σου. Ένας καλογραμμένος αλγόριθμος μπορεί να περιγράψει τέλεια ένα συναίσθημα, κάνει στην ουσία «αυτό που του’ χουν μάθει να κάνει», αυτό δε σημαίνει όμως ότι και αισθάνεται. Αν κάποιο chatbot ισχυρίζεται ότι φοβάται και εγώ το πιστέψω, αυτό είναι δικό μου πρόβλημα, συμπεραίνει ο Ιταλός ερευνητής. Εξ’ άλλου, ο άνθρωπος έχει φυσική τάση προς τον ανιμισμό. Συνηθίζουμε να «εμψυχώνουμε», ή τουλάχιστον να δίνουμε ανθρώπινα χαρακτηριστικά και σε άλλα ειδή, όπως και σε αντικείμενα, ακόμα πιο πολύ όταν έχουν συναισθηματική αξία για μας. Εάν μάθουμε το σκύλο μας να υπακούει πιστά στις εντολές μας, εκπαίδευση που και αυτή ξεκινάει απ’ την βασική «απάντηση σε ερεθίσματα», λέμε ότι «είναι έξυπνο». Βαφτίζουμε, ακόμα και μηχανήματα, «smart», εάν έχουν συμπεριφορά που μιμείται την ανθρώπινη, αν έχουν λειτουργίες που συμπληρώνουν τις δικές μας, αν μας «μοιάζουν».

Μετά την αποτυχία του πρώτου chatbot της Bing, ο Μπίλ Γκέιτς παραπονέθηκε ότι φταίνε και οι χρήστες γι’ αυτό. Εμ, αν το μαθαίνεις ηλιθιότητες, ηλίθιες απαντήσεις θα σου επιστρέψει! Το σίγουρο είναι ότι ο υπολογιστής δεν σκέφτεται, τουλάχιστον όχι με την ανθρώπινη έννοια. Και πάνω απ’ όλα, δεν έχει ελεύθερη βούληση. Μπορεί όμως να εκτελεί άψογα, με ακρίβεια και συνέπεια, εντολές. Τα τελευταία χρόνια όλο και πιο δύσκολες με την βοήθεια πολύπλοκων αλγορίθμων. Η «δημιουργικότητα» του υπολογιστή, για την οποία όλο ακούμε τελευταία, είναι και αυτή, εντολές. Μπορεί να εντυπωσιάζουν, αλλά δεν παύουν να είναι εντολές. Μπορούμε ακόμα να μιλάμε για συνείδηση στην περίπτωση του υπολογιστή; Για να ορίσουμε την «συνείδηση» θα χρειαστεί να ξαναγυρίσουμε στον Μπεργκσόν. Πολύ πριν η Νευροψυχολογία να το αποδείξει, ο Μπεργκσόν κατάλαβε ότι αυτή η πολύπλοκη συνδεσμολογία νευρώνων, ο τρόπος που διαμορφώνονται και σχετίζονται μεταξύ τους ξεκινώντας από την γέννηση, γενικά όλες οι πληροφορίες και εμπειρίες που απορροφάμε μέσω των αισθήσεων και τις χρησιμοποιούμε να δημιουργήσουμε συνειρμούς, με μηχανισμό την συλλογική σκέψη, είναι η ίδια η συνείδηση. Δεν είναι τυχαίο που θεωρούσε την μνήμη, στην οποία οι υπολογιστές μας έχουν ξεπεράσει κατά πολύ, την βάση της συνείδησης. Εξήγησε την υλική φύση της συνείδησης, αν και ακόμα και σήμερα αρκετοί άνθρωποι δυσκολεύονται να αποδεχτούν ότι «τα πάντα είναι στον εγκέφαλο μόνο», χωρίς κάποια πνευματική ή μεταφυσική διάσταση. Επίσης, τώρα ξέρουμε ότι και η γενετική κληρονομιά είναι εξίσου σημαντική στην διαμόρφωση του οργανισμού, συνεπώς και της συνείδησης. Οι περισσότεροι επιστήμονες συμφωνούν ότι είμαστε το αποτέλεσμα τουλάχιστον δυο σημαντικών παραγόντων: κληρονομικότητα και επίδραση του περιβάλλοντος. Η «διαμόρφωση» του εγκεφάλου, για να χρησιμοποιήσω έναν όρο των υπολογιστών, ξεκινάει από την παιδική ηλικία και επηρεάζεται από την οικογένεια, το σχολείο, την κοινωνία και τις εμπειρίες. Το αντίστοιχο στους «ηλεκτρονικούς εγκεφάλους» είναι το deep learning, το οποίο χρησιμοποιεί και αυτό φυσικούς μηχανισμούς, όπως συσσώρευση εμπειριών, αναγνώριση μοντέλων/προτύπων, μιμητισμό.

Ίσως θα ήταν πιο σωστό να αντιμετωπίσουμε με ολιστικό τρόπο την εποχή μας. Η ΤΝ είναι μέρος – η συνέπεια - της εξέλιξής μας. Από τον Αριστοτέλη, που αποτύπωσε τις αρχές της λογικής και της επιστημονικής προσέγγισης, είναι μια ευθεία. Ο Δαρβίνος ήταν θέμα χρόνου να εμφανιστεί, αν και έφτασε λίγο καθυστερημένα στην ανθρώπινη ιστορία, εξαιτίας κυρίως της θρησκείας και άλλων τέτοιων παραγόντων που αντιτίθενται στην ελεύθερη σκέψη. Αλλά ήρθε, ανέτρεψε τα πάντα στην γνώση και από τότε η επιστήμη «πάτησε γκάζι». Φτάσαμε στο σημείο να κλωνοποιήσουμε τον εαυτό μας, όχι μόνο τα «περιφερειακά» όργανα, αλλά και το «κέντρο ελέγχου». Αντιγράφουμε την φύση, γιατί η φύση έχει πάντα την καλύτερη λύση. «Το γεγονός ότι αντιλαμβανόμαστε σιγά σιγά τον κόσμο μας, αντί να τον ανακαλύπτουμε ξαφνικά, δεν πρέπει να μειώνει το μεγαλείο του», λέει ο εξελικτικός ερευνητής Ρίτσαρντ Ντόκινς.

Μετά τον Δαρβίνο, κάθε ορισμός της συνείδησης, της ύπαρξης, της θέλησης, θα’ πρεπε να συμπεριλάβει και μια εξελικτική επεξήγηση. Η ανθρωπολογία, η κοινωνιολογία, η οντολογία μπορούν να χωριστούν σε «πριν» και «μετά» τον Δαρβίνο. Είναι περιττό να πούμε ότι ο ντετερμινισμός, ακόμα και η ηθική, δεν έχουν πια νόημα στην μελέτη της φύσης. Δεν υπάρχει σκοπός, «η εξέλιξη είναι τυφλή στο μέλλον» λέει ο Ντόκινς. Και σωστό-λάθος, αρετές και πρότυπα δεν υπάρχουν στην φύση, είναι μόνο ανθρώπινες (πολιτισμικές) επινοήσεις. Όλο και περισσότερος κόσμος το καταλαβαίνει αυτό στις μέρες μας, απ’ όπου προκύπτουν και τα υπαρξιακά ζητήματα σ’ αυτούς που έχουν μεγαλώσει με βεβαιότητες και έρχονται αντιμέτωποι με γεγονότα και ανακαλύψεις που καταρρίπτουν μύθους. Η απομάκρυνση από τις θρησκείες και τις παραδοσιακές αξίες είναι το αποτέλεσμα αυτής της τάσης. Και τι γίνεται; Θα κάνουμε ό,τι θέλουμε; Πως θα παίρνουμε αποφάσεις χωρίς ηθική καθοδήγηση; Εδώ είναι που μπαίνει στο παιχνίδι ο Ιμμάνουελ Κάντ, ο οποίος, αν και δεν πρόλαβε την ανακάλυψη του Δαρβίνου, είχε μια ιδέα «για το ποιος αποφασίζει»: η κατηγορική προσταγή, μετά από την οποία δεν υπάρχει άλλος μηχανισμός κρίσης.

Στην περίπτωση της ΤΝ ποιος αποφασίζει; Ακόμα και όταν λειτουργεί χωρίς εποπτεία (un-supervised) μπορούμε να πούμε ότι ο υπολογιστής έχει μηχανισμό κρίσης; Στην εποπτευόμενη εκμάθηση οι έννοιες είναι ήδη προκαθορισμένες. Στην εκμάθηση χωρίς επόπτη, ο υπολογιστής χρησιμοποιεί αλγόριθμους για την δημιουργία, την διαφοροποίηση και την ταξινόμηση της πληροφορίας. Πόσα εκατομμύρια γραμμές από «if» και «then» θα χρειαστούν για να μπορούμε να λέμε ότι ο υπολογιστής αποφάσισε με βάση τη «δική του κρίση»; Πόση πληροφορία θα πρέπει να εξαντλήσουμε έως ότου να μπορούμε να πούμε ότι το τάδε «0» ή «1», το «true» ή «false», είναι αποτέλεσμα μιας ελεύθερης βούλησης; Μια απ’ τις πρώτες εφαρμογές της ΤΝ ήταν το «Game of life». Γραμμένη από τον μαθηματικό Τζον Κόνουαει την δεκαετία του ‘70, λειτουργούσε πολύ αποτελεσματικά, με απλούς αλγόριθμους. Έπαιζες με τετραγωνάκια (κύτταρα) και αν έβρισκες μια «χρυσή τομή», έναν συνδυασμό σωστό, μπορούσε να αναπαραχθεί στο άπειρο, όπως η πρώιμη ζωή, από τυχαίους μοριακούς συνδυασμούς. Το «Game of life» είναι η απόδειξη ότι οι αλγόριθμοι «μπορούν να τα καταφέρνουν και από μόνοι τους». Άρα, γιατί να μην λέμε για τους σύγχρονους υπολογιστές, «προικισμένοι» με deep learning και πολύπλοκους αλγόριθμους, ότι έχουν ικανότητα κρίσης;

Το πρόβλημα είναι ότι ακόμα και στην περίπτωση μας, δεν έχουμε ένα κοινό σύστημα αξιών, ή όπως λέμε στην γλώσσα της τεχνολογίας, κοινό «στάνταρτ». Εξ’ άλλου, στην κατηγορική προσταγή αναφέρθηκε ακόμα και ο Άντολφ Άιχμαν, ένας απ' τους αρχιτέκτονες του ολοκαυτώματος, στην γνωστή δίκη του. Αυτός ο (τερατ)άνθρωπος ισχυριζόταν ότι λειτουργούσε όλη την ζωή του «σύμφωνα με την κατηγορική προσταγή». Δηλαδή ήξερε ότι κάνει «το σωστό». Έπραξε «συνειδητά». Φυσικά, δεν ήταν παρών ο Κάντ να του τραβήξει το αυτί, να του εξηγήσει ότι κάτι λάθος κατάλαβε. Αφού το αποτέλεσμα δεν είναι καλό, σημαίνει ότι «δεν είναι και τόσο κατηγορική». Ξαναγυρίζουμε στην υποκειμενικότητα του ανθρώπου, πολλές φορές με τραγικές συνέπειες, αλλά πάντα με την «συνείδηση» και το «δίκαιο» στο πλευρό μας... Εάν ένα «έξυπνο» αυτοκίνητο αποφασίζει, σε 0,001 δευτερόλεπτα, ότι είναι προτιμότερο να στρίψει αριστερά, όπου βρίσκεται ένας ανυποψίαστος περαστικός, επειδή στρίβοντας δεξιά θα χτυπήσει πέντε, τότε η κρίση δεν είναι δική του, αλλά αυτών που διάλεξαν να γράψουν έτσι τον αλγόριθμο. Πιο σωστό θα’ ταν να μην χρησιμοποιούμε, στην περίπτωση του υπολογιστή, τον όρο «κρίση», τουλάχιστον με την έννοια του Καντ, αλλά «επεξεργασία» ή «αξιολόγηση ρίσκων». Φυσικά και ο υπολογιστής μπορεί να παίρνει αποφάσεις καλύτερα, γρηγορότερα, πιο αποτελεσματικά και αμερόληπτα σε σχέση με τον άνθρωπο. Αλλά πάλι με τους αλγόριθμους που του φορτώνουν οι άνθρωποι ή με αλγόριθμους που έχουν παράξει άλλοι αλγόριθμοι, που και αυτοί με την σειρά τους είναι γραμμένοι από τον άνθρωπο. Εκτός αυτού, στις μέρες μας είναι και αναγκαίο να ενσωματώσουμε την τεχνολογία στις δραστηριότητες μας. Φάνηκε, δυστυχώς, πρόσφατα πόσο εγκληματικό είναι να αφήνεις στην κρίση ανθρώπων σημαντικές αποφάσεις, όταν έχεις να κάνεις με πολλούς παράγοντες, με μεγάλες ταχύτητες και ελάχιστο χρόνο. Βάλε και τον παράγοντα «ανευθυνότητα», που δεν υπάρχει καν στον υπολογιστή, και καταλαβαίνεις ότι ζούμε από τύχη, επειδή δυσκολευόμαστε ή αρνούμαστε να αποδεχτούμε τις τεχνολογικές εξελίξεις.

Σε μια συνομιλία που είχα με το chatGPT, προσπαθώντας να μάθω αν πιστεύει πως έχει συναίσθηση ή ελεύθερη βούληση, οι απαντήσεις που πήρα ήταν συναρπαστικές. Θα’ λεγα ότι έχει «επίγνωση του τι είναι»: ένα εξελιγμένο μηχάνημα, με τεράστιες δυνατότητες και το οποίο βελτιώνεται συνεχόμενα, ακόμα και από ένα τέτοιο σύντομο chat. Το συνεχάρηκα κιόλας, στο οποίο απάντησε ευγενικά, όπως αρμόζει σε ένα ρομπότ, για τον συνεκτικό τρόπο σκέψης και την απόλυτα λογική του επιχειρηματολογία, που λείπει πολλές φορές και από τον άνθρωπο. Παραδέχεται ότι έχει «περιορισμένη συλλογική ικανότητα», που βασίζεται σε στατιστικά μοντέλα και στην ανάλυση τεράστιων όγκων δεδομένων. Δεν έχει την υποκειμενικότητα του ανθρώπου - αυτό και αν είναι «μειονέκτημα» - αλλά από την άλλη, ούτε την διαίσθησή μας. Είναι, όπως καταλαβαίνετε, αυτό που ονειρευόταν πάντα ο Αριστοτέλης, ένα πλάσμα που σκέφτεται κυρίως με παραγωγικό τρόπο και είναι απόλαυση να κάνεις διάλογο μαζί του. Δεν έχει όμως συνείδηση και είναι αβέβαιο αν τα μηχανήματα θα αποκτήσουν ποτέ. Αλλά ως «λογικό ον» που είναι, δεν δίνει απόλυτες απαντήσεις. Συγκεκριμένα, η απάντηση του ήταν αυτή: The question of whether AI could achieve self-awareness and consciousness is a topic of ongoing debate among experts in the field of AI research. While there have been significant advancements in recent years, there is still a long way to go before we can create machines that possess the same level of complexity and consciousness as the human brain. Για ελεύθερη βούληση, ούτε λόγος: I do not have the capacity for independent thought or subjective experience. While I can generate responses that appear to be natural and spontaneous, these responses are ultimately the result of complex algorithms and machine learning models that have been pre-programmed by humans. I do not have the ability to make decisions or choices outside of the parameters of my programming. Therefore, I cannot be said to possess free will, as my actions and responses are predetermined by my programming and algorithms.

Η ΤΝ είναι συμπληρωματική τεχνολογία του εγκεφάλου μας, με πάρα πολλές εφαρμογές. Όπως κάθε νέα τεχνολογία, είναι και επικίνδυνη στα χέρια ανθρώπων με «μηδέν» δεοντολογία. Χωρίς κατηγορική προσταγή. Όπως και το «δαμασμένο» άτομο μπορεί να μας φανεί χρήσιμο, αλλά όταν το βάζεις να κάνει «κακά» πράγματα, μπορεί να σκοτώσει. Δεν παύει να είναι τεχνολογία, συντονισμένη από τον άνθρωπο. Το σίγουρο είναι ότι η εξέλιξη εξακολουθεί να συμβαίνει, δεν σταμάτησε ποτέ, και η ΤΝ είναι ένα κομμάτι της. Ο ίδιος ο Μπίλ Γκέιτς, που προωθεί με κάθε ευκαιρία αυτήν την τεχνολογία, συμβουλεύει να μαθαίνουμε τα παιδιά μας προγραμματισμό όπως τα προτρέπουμε να μαθαίνουν ξένες γλώσσες, αλλά παράλληλα πρέπει να συνεχιστεί η κλασική εκπαίδευση. Και δεν εννοώ μόνο το σχολείο, που πολλές φορές, ειδικά στις συντηρητικές κοινωνίες, υστερεί στην προσαρμογή και, αντί να μορφώνει, διαφθείρει και αναστέλλει την δημιουργικότητα των νέων. Ούτε τα εργαλεία όπως Wikipedia και Google - τώρα πλέον και τα εξελιγμένα chatbots – είναι επαρκή, γιατί είναι στην ουσία μασημένη τροφή και το αποτέλεσμα είναι η ατροφία του δικού μας εγκεφάλου. Ο κόσμος μας έχει γίνει πολύ σύνθετος και έχουμε όλο και μεγαλύτερη ανάγκη την ΤΝ, αλλά όταν το κινητό έχει καταντήσει πιο έξυπνο από μας, τρέφουμε θαυμασμό γι’ αυτό και του αποδίδουμε ανθρώπινα χαρακτηριστικά, τότε έχουμε σοβαρό πρόβλημα. Οι νεαροί που γράφουν τέτοιους προχωρημένους αλγόριθμους θα πρέπει να κατανοήσουν πρώτα την φυσική νοημοσύνη, προτού χαρακτηρίσουν ένα εμπορικό προϊόν – «συνειδητοποιημένο».

 

Κώστας Πολυνάκης