Εμ, οκ, φωνητική αναγνώριση σε ηλεκτρονικές συσκευές; Check! Αυτόματη ανάλυση εικόνων; Check! Αυτοκίνητα που δεν χρειάζονται ανθρώπινο οδηγό; Check! Αυτόματοι μεταφραστές; Check! Συστήματα ερωτοαπαντήσεων; Check! Skynet becoming aware? Check! Άκυρο, υποτίθεται ότι δεν πρέπει να το πω αυτό. Πάμε παρακάτω και ξεχάστε ότι το διαβάσατε. Η συζήτηση για την τεχνητή νοημοσύνη (A.I.) έχει έρθει και πάλι στο προσκήνιο. Στον ιστότοπο του FLI (Future of Life Institute) έχει αναρτηθεί ανοικτή επιστολή σχετικά με την πορεία που θα πρέπει να ακολουθήσει η επιστημονική κοινότητα όσον αφορά την έρευνα γύρω από την επίτευξη της ολοκληρωμένης τεχνητής νοημοσύνης (A.I.).
“… Συνοπτικά, πιστεύουμε ότι η έρευνα για το πώς να κάνουμε τα συστήματα τεχνητής νοημοσύνης εύρωστα και ευεργετικά είναι και σημαντική και επίκαιρη, και ότι υπάρχουν συμπαγείς ερευνητικές κατευθύνσεις που μπορούν να ακολουθηθούν σήμερα.”
Open Letter, Future of Life
Το περιεχόμενο αυτής της επιστολής αφορά τις όποιες προεκτάσεις θα έχει μια τέτοια τεχνολογική εξέλιξη. Και πιστέψτε με, είναι πολλές! Αφορούν την κοινωνία, την οικονομία, το νομικό σύστημα, τη φιλοσοφία ακόμα και την ίδια μας την ύπαρξη σύμφωνα με κάποιες απόψεις. Όχι, όχι, δεν ήταν ο Βρασίδας που έθεσε το ζήτημα του κινδύνου για το ανθρώπινο είδος. Ήταν ο Stephen Hawking! Ο ίδιος θεωρεί ότι «η ανάπτυξη μιας άρτιας τεχνητής νοημοσύνης μπορεί να επιφέρει το τέλος της ανθρωπότητας». Οκ, πριν αρχίσετε να τραβάτε καλώδια για να αποσυνδέσετε συσκευές και να βγάλετε στον πάγκο όλα τα διαθέσιμα κεριά να διευκρινίσω το πλαίσιο στο οποίο εξέφρασε αυτή την άποψη. Η ανησυχία του έχει να κάνει με το ενδεχόμενο η τεχνολογία αυτή να ξεπεράσει τις ανθρώπινες δυνατότητες από κάθε πλευρά, θεωρώντας ότι αυτό θα μας καταστούσε παρωχημένους. You know, yesterday’s news! Ο ίδιος έχει υπογράψει την επιστολή, όπως και οι Elon Musk και Sam Harris μεταξύ (πολλών) άλλων.
Πρέπει όμως να κάνουμε έναν σημαντικό διαχωρισμό μεταξύ της ειδικής και γενικής χρήσης. Πολύ απλά, ειδικής χρήσης A.I. είναι τα παραδείγματα που ανέφερα και στην αρχή, φωνητική αναγνώριση κλπ. Ή όπως ο Cepheus. Γενικής χρήσης είναι αυτά που βλέπουμε σε ταινίες όπως το Her, το Terminator και άλλες. Πλήρως ανεπτυγμένη και λειτουργική τεχνητή νοημοσύνη δηλαδή. Σχεδιασμένη να δρα στα πρότυπα του ανθρώπου. Μεταξύ των δύο, αυτή τη στιγμή είμαστε στο επίπεδο της εκδοχής για ειδικές χρήσεις και μάλλον απέχουμε αρκετά χρόνια (έως και δεκαετίες) ακόμα από τη δεύτερη κατηγορία. Ζητήματα βέβαια προκύπτουν από τώρα, αλλά η απειλή κατά της ανθρωπότητας θα μας απασχολήσει τότε. Αυτό φυσικά δεν θα εμποδίσει εμένα από το να ασχοληθώ τώρα.
Αρκετά όμως με τις οριοθετήσεις και τους ορισμούς. Πάμε να δούμε λίγο τα ηθικοφιλοσοφικά της κάθε περίπτωσης. Αρχικά, να πιάσουμε την πρώτη περίπτωση γιατί είναι και πιο εύκολη. Τι θα γίνει, για παράδειγμα, εάν ένα από τα «έξυπνα» αυτοκίνητα χρειάζεται να επιλέξει μεταξύ της προστασίας του επιβάτη και ενός ανθρώπου στο δρόμο; Θα πρέπει να έχει καθαρά ωφελιμιστική προσέγγιση; Ή μήπως να προσπαθήσει να προστατεύσει τον ιδιοκτήτη του με κάθε κόστος; Κατά τη γνώμη μου, θα πρέπει να ισχύει το πρώτο. Αν θέλουμε να το δούμε με χρονικό βάθος το θέμα, δεν νομίζω ότι μπορούμε να βασιστούμε πάνω στη διαφορετική στάθμιση ανθρωπίνων ζωών. Ειδικά, αφού εμείς οι ίδιοι δεν θα μπορούσαμε να απαντήσουμε ομόφωνα μεταξύ δύο ανθρώπων ποιος θα άξιζε να ζήσει. Φυσικά όλοι μας, αν ήμασταν στη θέση του επιβάτη θα θέλαμε να προστατεύσει εμάς. Το ίδιο όμως δεν ισχύει αν ήμασταν ο πεζός; Οπότε, αν βγάλουμε από τη μέση την αναπόφευκτη υποκειμενικότητα, θα πρέπει λογικά να καταλήξουμε σε μια utilitarianιστική φάση. Διότι ο προσανατολισμός δεν αφορά μόνο την παραπάνω περίπτωση, αλλά κάθε περίπτωση που θα χρειαστεί να ληφθεί μία τέτοια απόφαση.
“1. Το ρομπότ δε θα κάνει κακό σε άνθρωπο, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί ανθρώπινο όν
2. Το ρομπότ πρέπει να υπακούει τις διαταγές που του δίνουν οι άνθρωποι, εκτός αν αυτές οι διαταγές έρχονται σε αντίθεση με τον πρώτο νόμο
3. Το ρομπότ οφείλει να προστατεύει την ύπαρξή του, εφόσον αυτό δεν συγκρούεται με τον πρώτο και τον δεύτερο νόμο”
The Three Laws of Robotics, Isaac Asimov
Και επιτέλους, ήρθε η ώρα να το ξεχειλώσουμε τελείως! Πάμε, φεύγουμε και ταξιδεύουμε προς το μέλλον. Όσο θέλει ο καθένας σας, 50, 100, 200 χρόνια; Όσο κρίνετε απαραίτητο. Το σημαντικό είναι ότι έχουμε ρομπότ! Λοιπόν, ξεχάστε ό,τι ξέρετε από ταινίες επιστημονικής φαντασίας γιατί πολύ απλά κάνουν το ίδιο λάθος ξανά και ξανά, οπότε δεν μας βοηθούν ως παραδείγματα. Ποιο είναι το λάθος; Glad you asked! Υπάρχει το επαναλαμβανόμενο μοτίβο της ανάπτυξη συνειδητότητας των ρομπότ. Πολύ ωραία! Πολύ ωραίο concept! Οκ, και πώς έγινε αυτό; Οι επιστήμονες έφτιαξαν έτσι το εκάστοτε ρομπότ, ώστε η λειτουργία του να αντιγράφει τον τρόπο που λειτουργεί ο ανθρώπινος εγκέφαλος. Τέλεια! Μόνο που μονίμως προσπέρναται η βασική προϋπόθεση ότι για να πετύχαμε κάτι τέτοιο, αυτό σημαίνει ότι πρώτα αποκρυπτογραφήσαμε τον ανθρώπινο εγκέφαλο και μετά φτιάξαμε τον αλγόριθμο που τον μιμείται. Και δεν θέλετε καν να ξεκινήσω να αραδιάζω τι μπορεί να σημαίνει αυτό πριν φτάσουμε καν στην τεχνολογία!
Δημιουργούνται λοιπόν ερωτήματα για το πώς θα έχει αλλάξει κάθε πτυχή της ζωής και της καθημερινότητας. Καταρχάς θεωρώ ότι έχουμε συνηθίσει να είμαστε το κυρίαρχο είδος πάνω στον πλανήτη. Πολύ δύσκολα θα αποδεχτούμε μαζικά την ανωτερότητα που θα έχουν. Διότι αν κάνουμε το συνδυασμό «λειτουργία ανθρωπίνου εγκεφάλου + επεξεργαστική ισχύ ενός υπολογιστή του 2150» τότε ναι, μιλάμε ξεκάθαρα για ανώτερο είδος. Πιθανότερο βρίσκω το σενάριο που τα έχουμε κρατήσει «κάτω», υπό μία μορφή καταπίεσης. You know, δούλοι! Και αν αναρωτιέστε εάν αυτό θα είναι ηθικό, να κάνω τρεις σημαντικές διευκρινίσεις. Πρώτον, στην ανθρώπινη ιστορία ποτέ, μα π-ο-τ-έ δεν χαρακτηρίσαμε κάτι ως ανήθικο πριν καν συμβεί, σε μεγάλη κλίμακα κιόλας. Πάντα, η ηθική χτιζόταν εκ του αποτελέσματος. Δεύτερον, η ηθική είναι κάτι που ισχύει για μεταξύ μας και είναι μία έννοια που εμείς ορίσαμε και μεταλλάξαμε ανάλογα με τις περιόδους και τις κοινωνίες. Δεν προϋπήρχε και εξαρτάται άμεσα από τη γνώμη μας. Δεν ανακαλύφθηκε, εφευρέθηκε. Άρα, για να φτάσουμε να πούμε ότι είναι ανήθικη η εκμετάλλευση των ρομπότ θα πρέπει να τα αναγνωρίσουμε ως όντα. Η θεμελιώδης αρχή όμως, πάνω στην οποία θα έχουμε κάνει αυτό το τεχνολογικό άλμα, είναι ότι τα ρομπότ, όπως και οτιδήποτε δημιουργούμε, είναι στην υπηρεσία της ανθρωπότητας. Τρίτον, ας παραδεχτούμε κάτι με ωμότητα επιτέλους : Το μόνο κακό με τη δουλεία είναι ότι μέχρι τώρα, για να υφίσταται, θα έπρεπε άνθρωποι να είναι δούλοι. Το οποίο φυσικά είναι καταδικαστέο. Όχι όμως καταρχήν, αλλά σε συνέργεια με την ανθρώπινη υπόσταση. Άρα, δεν βλέπω κανένα πρόβλημα με τη ρομποσκλαβιά.
"Ψιτ, μικρέ! Όταν τελειώσεις, φρόντισε να καθρεφτίζεται η φάτσα μου στο πλακάκι!"
Ευρύτατα διαδεδομένη είναι η άποψη ότι τα ρομπότ θα μας πάρουν τις δουλειές γιατί θα είναι πιο φθηνά εργατικά χέρια (τζάμπα για την ακρίβεια) και θα μείνουμε όλοι στο δρόμο και θα ψοφήσουμε από την πείνα. Χμμ, για να σκεφτώ λίγο. Επιχειρήσεις και κράτη υπό το καθεστώς της δημοκρατίας θα λειτουργούν υπό πολύ χαμηλότερο, αν όχι σχεδόν μηδενικό, κόστος. Οπότε το προφανές συμπέρασμα είναι ότι αυτοί οι σατανικοί σκατοκαπιτάλες απλά θα τρώνε περισσότερο. Σωστά; Nope! Στα δημοκρατικά κράτη έχουν αναπτυχθεί οι έννοιες της πρόνοιας και των παροχών. Πιο πιθανό μου φαίνεται το σενάριο όπου το «δωρεάν δημόσια υγεία και παιδεία» έχει εξελιχθεί σε «δωρεάν δημόσια υγεία, παιδεία, σίτιση, κατοικία, ανέσεις, καφέδες, σουβλάκια» παρά σε «πεθαίνουμε όλοι στην ψάθα». Μία άλλη μορφή οικονομικού μοντέλου θα μπορούσε να είναι η αντικατάσταση με τη μέθοδο του αντιπροσώπου. Έχεις δηλαδή τους τίτλους ιδιοκτησίας ενός ρομπότ και πάει αυτό στη δουλειά αντί για σένα, αλλά εσύ εισπράττεις το μισθό και όλες τις παροχές. Καλή ιδέα μου φαίνεται.
Ό,τι κι αν γίνει πάντως, δεν πρέπει να βγάζουμε εκτός εξίσωσης το γεγονός ότι παράλληλα, αναπτυσσόμαστε και πολιτισμικά. Επαναλαμβάνω ότι ήδη από τώρα έχει τεθεί ότι η τεχνητή νοημοσύνη θα πρέπει να είναι στην υπηρεσία της ανθρωπότητας. Οπότε μάλλον θα εφαρμοστεί και εκεί ο άξονας ότι «κοιτάμε το καλό του ευρύτερου συνόλου». Άλλωστε και η παιδεία και η υγεία ήταν προνόμια πριν γίνουν δικαιώματα.