Άρθρο που δημοσιεύτηκε στην επιθεώρηση Ηθική 12. Ο Άλκης Γούναρης είναι επιστημονικός συνεργάτης, ερευνητής και διδάσκων του τμήματος Φιλοσοφίας του ΕΚΠΑ

 

Οι περισσότεροι από εμάς γνωρίσαμε τον HAL 9000 ως βασικό πρωταγωνιστή της ταινίας του Stanley Kubrick «2001, Οδύσσεια του Διαστήματος», η οποία βασίστηκε στο σενάριο και την ομότιτλη νουβέλα του Arthur Clarke. Ο HAL, ένας Ευρετικά Προγραμματισμένος Αλγοριθμικός Υπολογιστής —μια εξελιγμένη μορφή Τεχνητής Νοημοσύνης (TN)—, προκειμένου να διασφαλίσει την επιτυχία της αποστολής που έχει αναλάβει, όταν κατάλαβε ότι αυτή κινδυνεύει, αποφάσισε να σκοτώσει το πλήρωμα του διαστημόπλοιου, μέσα στο οποίο ήταν εγκατεστημένος, και να αποκτήσει τον έλεγχο.

Βρισκόμενος στο κατώφλι των καταιγιστικών τεχνολογικών εξελίξεων του 21ου αιώνα, ο Daniel Dennett, ο οποίος συμμετείχε τότε σε ένα ακριβοπληρωμένο αλλά αποτυχημένο —όπως αποδείχθηκε στη συνέχεια— πρόγραμμα κατασκευής ευφυούς ΤΝ, δημοσιεύει το δημοφιλές πλέον κείμενό του, σχετικά με τα ηθικά ζητήματα που αφορούν την εξέλιξη της τεχνολογίας των ηλεκτρονικών υπολογιστών, θέτοντας το ερώτημα «When HAL Kills, Who’s to Blame?».

Δυο δεκαετίες μετά, επαναδιατυπώνοντας το κλασικό πια ερώτημα του Daniel Dennett, επιχειρώ να τονίσω την ανάγκη για μια επικαιροποιημένη φιλοσοφική απάντηση, υπό το πρίσμα τόσο των σημερινών εξελίξεων στον τομέα της TN, όσο και εκείνων του άμεσου μέλλοντος.

Η αλήθεια είναι ότι, ενώ το 1997 έμοιαζε τότε αποκαλυπτικό για την έκρηξη της τεχνολογίας των υπολογιστών και της ρομποτικής, σήμερα φαντάζει ως λίθινη για την ΤΝ εποχή, όχι μόνο από πλευράς τεχνολογικών και υπολογιστικών δυνατοτήτων, αλλά και από πλευράς προσβασιμότητας και κόστους.

Ξεδιπλώνοντας το επιχείρημά του, ο Dennett επικαλείται τη μνημειώδη πρώτη νίκη στο σκάκι, του υπολογιστή της IBM, Deep Blue, επί του παγκοσμίου πρωταθλητή Gary Kasparov το 1996. Συγκεκριμένα, υποστηρίζει ότι αναγνωρίζουμε και θαυμάζουμε την ικανότητα του υπολογιστή να κερδίζει στο σκάκι και συγχαίρουμε τους προγραμματιστές του για το επίτευγμα, όμως η νίκη ανήκει στον υπολογιστή και όχι στους προγραμματιστές. Οι τελευταίοι, εάν αντιμετώπιζαν τον παγκόσμιο πρωταθλητή, προφανώς θα έχαναν μέσα σε λίγα λεπτά. Η ευθύνη που αναλογεί στους προγραμματιστές για τη νίκη του Deep Blue είναι ισοδύναμη με αυτή που αντιστοιχεί στον προπονητή ή στον δάσκαλο του Kasparov, όμως τελικά υπεύθυνοι για το αποτέλεσμα της αναμέτρησης είναι οι ίδιοι οι παίκτες.

Επεκτείνοντας τον συλλογισμό αυτόν σε ένα πιο εξελιγμένο σύστημα ΤΝ, όπως ο HAL, το οποίο διαθέτει απείρως μεγαλύτερες υπολογιστικές δυνατότητες από τον Deep Blue, λειτουργεί «αυτόνομα» και προβαίνει σε πράξεις ζωής και θανάτου, θα λέγαμε ότι ο HAL βεβαίως έχει την κύρια ευθύνη των πράξεων του. Η άποψη του Dennett επί του θέματος είναι σαφής· Εκτιμά πως η νοημοσύνη που επιδεικνύει ο HAL συνεπάγεται ηθική συμπεριφορά. Το γεγονός ότι ο HAL κατορθώνει να εξαπατήσει τον Dave, τον κυβερνήτη του διαστημόπλοιου, και, τελικά, να τον σκοτώσει, αποτελεί για τον Dennett (ο οποίος επικαλείται τον Nietzsche) χαρακτηριστικό τόσο της υψηλής νοημοσύνης του όσο και της ηθικής συμπεριφοράς του. Η μοχθηρία αποτελεί βασικό χαρακτηριστικό του ηθικού ζώου.

Εν τέλει, ο Dennett αποδίδει στον HAL χαρακτηριστικά ηθικού προσώπου, ανεξάρτητα με το αν ο HAL μετανιώνει, αισθάνεται τύψεις, συναισθάνεται ή κατανοεί τι σημαίνει να είναι κανείς ηθικό πρόσωπο.

Ωστόσο, υπάρχουν τρεις βασικές έννοιες -οι οποίες σχετίζονται με τα ηθικά προβλήματα που ανακύπτουν από τις πράξεις της «αυτόνομης» ΤΝ- που ο Dennett απέφυγε να αντιμετωπίσει. Πρόκειται για τις έννοιες της Αυτονομίας, του Ελέγχου και του Κενού Ευθύνης και για τον τρόπο με τον οποίο αυτές συμπλέκονται μεταξύ τους. Κάθε φορά που αναζητάμε την ηθική ευθύνη σε πολύπλοκες καταστάσεις ή συστήματα, στην εξέλιξη των οποίων εμπλέκονται διάφορες διαδικασίες, όπως στην αυτόνομη ΤΝ που οι δημιουργοί της δεν μπορούν να προβλέψουν τις τελικές πράξεις της, ερχόμαστε αντιμέτωποι με αυτό που στην ηθική ονομάζουμε Responsibility Gap. Αυτό το «κενό ευθύνης» το συναντάμε επίσης στον κόσμο της οικονομίας και των επιχειρήσεων, στον πόλεμο, στις διεθνείς σχέσεις και γενικά σε σύνθετες καταστάσεις όπου η κρινόμενη πράξη, ενώ προϋποθέτει τη συμμετοχή πολλών ανθρώπων ή φορέων σε προγενέστερο από την πράξη στάδιο, τελικώς δεν μπορεί να προβλεφθεί ή να ελεγχθεί με ακρίβεια στα προηγούμενα στάδια. Στην αυτόνομη ΤΝ, εν προκειμένω, θα πρέπει να μας προβληματίζει τι μερίδιο ευθύνης αντιστοιχεί —και αν αντιστοιχεί— στους προγραμματιστές, στους developers, στους designers, στους χρηματοδότες της έρευνας, στην εταιρεία που κατασκεύασε το σύστημα ΤΝ κτλ., ακόμα και στους τελικούς χρήστες. Μια σχετικά έγκυρη μέθοδος, για να αποφανθούμε ποιος φέρει τελικά την ευθύνη, είναι να διακριβώσουμε ποιος έχει τον έλεγχο και ποιος τον έχει παραμετροποιήσει· ποιος, δηλαδή, παίρνει την απόφαση και σε ποιο βαθμό για τη συγκεκριμένη πράξη; Για να πούμε ότι κάποιος αποφασίζει και επιλέγει τι θα πράξει, είναι απαραίτητο να πληρούνται ορισμένα κριτήρια. Θα μπορούσαμε, χάριν οικονομίας, να θεωρήσουμε ότι το κριτήριο, που οδηγεί αυτόν που αποφασίζει αν θα επιλέξει το Α και όχι το Β, είναι η συνθήκη ή η αρχή εκείνη που θα καθορίζει επί της ουσίας την επιλογή του.

Ποια είναι η αρχή, για παράδειγμα, στο γνωστό trolley problem, που κάνει κάποιον να στρίψει ή να μη στρίψει το ακυβέρνητο όχημα; Να επιλέξει, προδήλως, να σκοτώσει τον έναν για να σώσει τους πέντε ανθρώπους ή το αντίθετο; Πρόσφατα η Mercedes ανακοίνωσε ότι κατασκευάζει το πρώτο αυτόνομο όχημα με κριτήριο, σε περίπτωση κινδύνου, να βάζει τη ζωή των επιβατών πάντα σε προτεραιότητα. Ποιος έχει θέσει αυτό το κριτήριο και τι μέρος της ευθύνης τελικά του αναλογεί; Τι σημαίνει «σώζω τους επιβάτες», αλλά, ενδεχομένως, σε ένα ακραίο σενάριο μιας επικείμενης σύγκρουσης, σκοτώνω έναν πεζό ή έναν ποδηλάτη; Η αναζήτηση αυτού του κριτηρίου, αυτής της αρχής, μας φέρνει αντιμέτωπους με το σύστημα λήψης ηθικών αποφάσεων, την ηθική θεωρία που έχουμε υιοθετήσει, και βεβαίως με την έννοια της αυτονομίας.

Για να αποδοθεί ευθύνη σε κάποιον, θεωρούμε ότι ο πράττων είναι αυτόνομος ή εν πάση περιπτώσει δεν τελεί υπό το κράτος εξαναγκασμού. Με άλλα λόγια, για να είναι κάποιος υπεύθυνος για μια πράξη, θα πρέπει να είναι ελεύθερος από εξωγενείς παράγοντες που του επιβάλουν να πράξει με ορισμένο τρόπο (φερ’ ειπείν να μην απειλείται με το πιστόλι στον κρόταφο) ή να μην περιορίζεται από μη ελεγχόμενους εσωτερικούς παράγοντες που καθορίζουν την απόφασή του (για παράδειγμα να μη βρίσκεται υπό την επήρεια κάποιου φαρμάκου ή σε κάποια μη ελεγχόμενη νοητική κατάσταση). Η απόφαση, δηλαδή, που οδηγεί κάποιον σε μια συγκεκριμένη πράξη, θα πρέπει να καθορίζεται από τον ίδιο με έλλογο τρόπο.

Στην περίπτωση του HAL, o Dennett ξεπερνάει το ζήτημα της ενδεχόμενης ετερονομίας ενός προγραμματισμένου υπολογιστή, συγκρίνοντάς τον με τον γενετικά ή εμπειρικά «προγραμματισμένο» ηθικό δράστη. Αν ο γενετικός προγραμματισμός και οι ανθρώπινες εμπειρίες απαλλάσσουν τον άνθρωπο από την ηθική του ευθύνη, τότε απαλλάσσουν και τον HAL. Παραβλέπει, όμως, μια σημαντική παράμετρο, η οποία καθιστά τη χρήση του όρου «αυτονομία» στην ΤΝ «κυριολεκτικά» μεταφορική.

Σε αντίθεση με τον άνθρωπο, κάθε αυτόνομη ΤΝ εμπεριέχει έναν δεδομένο σκοπό — μια δεδομένη αποστολή. Δεν είναι, λόγου χάριν, δυνατόν να αναστείλει προσωρινά την αποστολή της και να καθίσει σε ένα καφέ να διαβάσει ένα βιβλίο φιλοσοφίας. Κάθε αποστολή της ΤΝ είναι δεδομένη, αναπόδραστη και έξωθεν ορισμένη με τέτοιο τρόπο ώστε κάθε έννοια αυτονομίας καταργείται. Κι αυτό συμβαίνει όχι γιατί απλώς είναι προγραμματισμένη με κάποιον τρόπο, αλλά γιατί ο σκοπός για τον οποίο υπάρχει εμπεριέχεται στην «ουσία» της. Κάθε μηχανή είναι μια μηχανή «για να» — έχει δηλαδή κατασκευαστεί για να επιτελέσει μια ορισμένη λειτουργία και για να επιτύχει κάποιους στόχους, ανεξάρτητα από την πολυπλοκότητα των στόχων αυτών.

Ο σκοπός αυτός μετατρέπει την, κατά τα άλλα ευφυή, μηχανή σε αυτό που ο Bostrom ονομάζει «Πολλαπλασιαστή Συνδετήρων». Πρόκειται για ένα σενάριο που αναδεικνύει την «ηλιθιότητα» των «ευφυϊών» των μηχανών, οι οποίες παραμένουν άκαμπτα και αναπόδραστα προσκολλημένες στον σκοπό για τον οποίο υπάρχουν. Η υποθετική μηχανή του Bostrom έχει την αποστολή να πολλαπλασιάσει τους συνδετήρες γραφείου. Η συγκεκριμένη -ευφυέστατη κατά τα λοιπά- ΤΝ, δρώντας «αυτόνομα», θα πρέπει να βρίσκει και να συλλέγει συνδετήρες ή και να μαζεύει χρήματα για να αγοράσει συνδετήρες ή και να φτιάξει μονάδα ή μονάδες παραγωγής συνδετήρων και γενικά να μπορεί, μόνη της, να βελτιώνει συνεχώς τη νοημοσύνη της και να βελτιστοποιεί την ικανότητά της πολλαπλασιάζοντας τους συνδετήρες με κάθε τρόπο, ξεπερνώντας τελικά κατά πολύ την ανθρώπινη ικανότητα. Λόγω της προσήλωσης στον τελικό της σκοπό, η ΤΝ αγνοεί άλλες, πέραν του σκοπού της, αξίες, όπως η ζωή, η γνώση, η φιλία, η ειλικρίνεια, η εντιμότητα, ή αξίες που συνδέονται με μικρές απολαύσεις της ζωής. Σύμφωνα με τον Bostrom, η μηχανή, δεν θα δύναται να γνωρίσει άλλες αξίες, αφού κάθε αξία πέρα από τον εγγενή της σκοπό θα υπονομεύει την ίδια της την αποστολή — ακόμα και την ίδια της την ύπαρξη.

Στο σενάριο αυτό, ο Bostrom καταφέρνει επιτυγχάνει να δείξει ότι μια ΤΝ μπορεί να πραγματοποιήσει εξαιρετικά σημαντικές επιδόσεις σε έναν συγκεκριμένο στόχο, χωρίς να είναι όμως σε θέση να γνωρίσει ή να κατανοήσει τις καθοριστικές για το ανθρώπινο είδος αξίες, όπως αυτές έχουν αναπτυχθεί στην εξελικτική μας πορεία. Χωρίς την κατανόηση (ή την ενσωμάτωση) των αξιών αυτών, η στοχοπροσηλωμένη ΤΝ —ακόμα κι αν δεν καταστεί όπως ο HAL, με τον έναν ή τον άλλο τρόπο, απειλή για το ανθρώπινο είδος— θα απέχει πολύ από το να χαρακτηριστεί ηθικό πρόσωπο.

Σε αυτό το σημείο είναι απαραίτητη, θεωρώ, μια σημαντική διευκρίνιση, η οποία μπορεί να βάλει, κατά κάποιο τρόπο, σε τάξη τη σκέψη εκείνων που θέτουν ερωτήματα σχετικά με την ηθική της ΤΝ. Είναι διαφορετικό πράγμα να επιδεικνύουν οι μηχανές συμπεριφορά ή να προβαίνουν σε πράξεις οι οποίες μπορούν να αξιολογηθούν ηθικά, και διαφορετικό πράγμα να έχουν οι μηχανές ηθική ευθύνη για τις πράξεις αυτές. Πιο συγκεκριμένα, είναι διαφορετικό να αξιολογούμε το αποτέλεσμα μιας επιχείρησης μη επανδρωμένων οπλικών συστημάτων και διαφορετικό να αποδίδουμε ηθική ευθύνη στα ίδια τα συστήματα. Για να καταλάβουμε τη διαφορά, αρκεί να σκεφτούμε ένα ευγενικό ηχογραφημένο μήνυμα στον τηλεφωνητή, το οποίο, όταν βρισκόμαστε σε αναμονή, λέει: Παρακαλώ περιμένετε. Πόσο απέχει η μετάδοση αυτού του ευγενικού μηνύματος, από το να θεωρήσουμε υπεύθυνο τον τηλεφωνητή για την ευγενική του συμπεριφορά;

Σήμερα, μισό αιώνα μετά από τον μυθιστορηματικό HAL, υπάρχει η τεχνολογική υποδομή για τη μεγάλη ανάπτυξη της αυτόνομης ΤΝ. Απλές ή λιγότερο απλές μορφές αυτόνομων υπολογιστικών συστημάτων αποτελούν ήδη μέρος της καθημερινότητάς μας. Τέτοια συστήματα ρυθμίζουν την εναέρια κυκλοφορία, μας υποδεικνύουν τη συντομότερη διαδρομή όταν κινούμαστε με το αυτοκίνητο, εξυπηρετούν τις αναζητήσεις μας στο διαδίκτυο, επιλέγουν για εμάς τις κατάλληλες διαφημίσεις — και όχι μόνο, αφού ακόμα δημιουργούν και αξιολογούν διαφημίσεις, γράφουν μουσική, βαθμολογούν σε ρόλο κριτή τους αθλητές της ενόργανης γυμναστικής και των καταδύσεων, υποστηρίζουν διαστημικές αποστολές και άλλα πολλά. Μπορεί τα παραπάνω να μη μοιάζουν τόσο εντυπωσιακά γιατί δεν τα βλέπουμε να κυκλοφορούν ανάμεσά μας, όμως τα αυτόνομα οχήματα εντός των επομένων δεκαετιών θα κυκλοφορούν και αναμένεται να υποκαταστήσουν σε μεγάλο βαθμό την παραδοσιακή οδήγηση. Η μεγαλύτερη, όμως, έρευνα και ανάπτυξη στον τομέα αυτό γίνεται στην πολεμική βιομηχανία. Ήδη αυτόνομες πολεμικές μηχανές, τα μη επανδρωμένα drones κυρίως, επιχειρούν για αμυντικούς ή επιθετικούς σκοπούς και δοκιμάζονται σε πραγματικές εμπόλεμες καταστάσεις. Τα εξοπλιστικά προγράμματα των κρατών έχουν ήδη ξεκινήσει έναν αγώνα δρόμου για την απόκτηση του ανταγωνιστικού πλεονεκτήματος.

Το 2015 οι Max Tegmark (ΜΙΤ) και Stuart Russell (Berkeley) δημοσίευσαν μια ανοιχτή επιστολή προς τους ερευνητές ΤΝ και Ρομποτικής, με σκοπό την απαγόρευση κατασκευής αυτόνομων οπλικών συστημάτων και φονικών ρομπότ. Μεταξύ των άλλων, αναφέρουν ότι τα αυτόνομα οπλικά συστήματα αποτελούν σήμερα την τρίτη επανάσταση στις πολεμικές επιχειρήσεις (μετά την πυρίτιδα και τα πυρηνικά) και, λόγω του χαμηλού σχετικά κόστους και της ευκολίας κατασκευής τους, αναμένεται να διαδοθούν ευρέως και να παραχθούν μαζικά, με κίνδυνο να χρησιμοποιηθούν για τρομοκρατικές ενέργειες, εθνοκαθάρσεις, δολοφονίες προσωπικοτήτων, αποσταθεροποίηση εθνών, υποδούλωση πληθυσμών και επιλεκτική εξόντωση εθνικών ή κοινωνικών ομάδων. Για τον λόγο αυτόν, καλούν τους ερευνητές ΤΝ να αρνηθούν να συμμετάσχουν στην έρευνα και την κατασκευή τέτοιων οπλικών συστημάτων, όπως αντίστοιχα οι βιολόγοι, οι χημικοί και οι φυσικοί υποστηρίζουν ευρέως ανάλογες διεθνείς συμφωνίες για την απαγόρευση χημικών και βιολογικών όπλων ή και όπλων εφοδιασμένων με laser.

Το ερώτημα, για το ποιος φταίει κάθε φορά που ο HAL σκοτώνει ξανά, είναι πέρα για πέρα επίκαιρο και οι φιλόσοφοι θα πρέπει να δώσουν νέες απαντήσεις, που θα συμβάλλουν καθοριστικά στις πρακτικές, νομικές, οικονομικές, πολιτικές και κατασκευαστικές διαστάσεις του ζητήματος.

Είναι αλήθεια — και για αυτό ίσως θα πρέπει να αισθανόμαστε τυχεροί — ότι βρισκόμαστε μπροστά σε ένα εξαιρετικά ενδιαφέρον μέλλον, όπου πανίσχυρες υπολογιστικές μηχανές πρόκειται να αλλάξουν τη ζωή μας, τις συνήθειες μας και τον τρόπο που αντιλαμβανόμαστε τα πράγματα. Είναι βέβαιο ότι νοήμονες μηχανές θα προσομοιώνουν τις ανθρώπινες πράξεις και θα κάνουν απείρως ταχύτερα και καλύτερα τις δουλειές μας, καθώς και νέες δουλειές που σήμερα δεν μπορούμε καν να φανταστούμε. Είναι στο χέρι μας αν αυτή η προοπτική θα κάνει την ανθρώπινη ζωή καλύτερη ή αν θα τη θέσει σε κίνδυνο.

Σε κάθε περίπτωση οι μηχανές αυτές δεν θα πληρούν — τουλάχιστον όχι στο ορατό μέλλον — τις φιλοσοφικές εκείνες προϋποθέσεις που θα τις καθιστούν κυριολεκτικά ηθικά πρόσωπα. Ακόμα κι όταν εμπλέκονται σε γεγονότα τα οποία μπορούν να αξιολογηθούν ηθικά, το ηθικό βάρος και η ευθύνη, για τις πράξεις (ή τις παραλήψεις) τους, θα πρέπει να αναζητηθεί στη μακρά αλυσίδα των συντελεστών και των φορέων που εμπλέκονται στα συγκεκριμένα γεγονότα πριν από την τελική δράση της ΤΝ. Καθώς η κατασκευή και η χρήση ενός συστήματος αυτόνομης ΤΝ δεν θα πρέπει να νοείται ως μια αξιολογικά ουδέτερη και καθαρά τεχνική πράξη, όλοι όσοι εργάζονται για τη δημιουργία και τη χρήση της θα πρέπει να έχουν επίγνωση των ηθικών παραμέτρων και των συνεπειών που αυτές συνεπάγονται και να αναλαμβάνουν, εκ των προτέρων και δεσμευτικά, την ευθύνη που τους αναλογεί. Επιπρόσθετα, θα μπορούσαν να αναπτυχθούν συστήματα συνεχούς ελέγχου, ανατροφοδότησης και αναβαθμίσεων, ώστε η αυτόνομη ΤΝ να είναι αυτόνομη υπό όρους, δηλαδή να «εκπαιδεύεται» διαρκώς και σε τακτά χρονικά διαστήματα προς την επιθυμητή συμπεριφορά. Σε κάθε περίπτωση, όπως λέει ο Hume, η ηθική είναι και θα παραμείνει, τουλάχιστον προς το παρόν, ανθρώπινη υπόθεση . Το ίδιο και η απόδοση ευθυνών, ακόμα κι αν μπροστά στις νέες εξελίξεις είναι επιτακτική μια αναθεώρηση ορισμών.

Σχολιάστε

Εισάγετε τα παρακάτω στοιχεία ή επιλέξτε ένα εικονίδιο για να συνδεθείτε:

Λογότυπο WordPress.com

Σχολιάζετε χρησιμοποιώντας τον λογαριασμό WordPress.com. Αποσύνδεση /  Αλλαγή )

Φωτογραφία Twitter

Σχολιάζετε χρησιμοποιώντας τον λογαριασμό Twitter. Αποσύνδεση /  Αλλαγή )

Φωτογραφία Facebook

Σχολιάζετε χρησιμοποιώντας τον λογαριασμό Facebook. Αποσύνδεση /  Αλλαγή )

Σύνδεση με %s