Τι χρειάζεται για να δοθεί σε κάποιον η άδεια φόνου;

13.03.2014
  • Γραμματοσειρά
    - +
    K2_DOUBLE_INCREASE_FONT_SIZE
Τι χρειάζεται για να δοθεί σε κάποιον η άδεια φόνου;
© pulpcovers.com
Τρία από τα βασικά συστατικά απαντήσεων σε αυτό το ερώτημα είναι συνήθως τα εξής: Πρώτον, δυνατότητα λήψης ορθής απόφασης για το αν και πότε θα πατήσει την σκανδάλη. Δεύτερον, δυνατότητα ακριβούς  και γρήγορης στόχευσης, και τρίτον, νομική ευθύνη. Πληρούν όμως αυτές τις τρείς προϋποθέσεις τα ρομπότ, ή οι άνθρωποι; Και πέρα από τα δύο αυτά άκρα του βιολογικού-τεχνητού φάσματος, θα τις πληρούσε ένα βιολογικό-τεχνητό υβρίδιο, ένα «μυαλό στη γυάλα» (brain-in-a-vat) στη φιλοσοφική αργκό, όπως είναι ο Ρόμποκοπ 'Αλεξ στην ταινία, που αποτελείται από ένα ανθρώπινο μυαλό, που αφού έζησε πολλά χρόνια στο σώμα του, αποσπάστηκε και τοποθετήθηκε σε ένα μηχανικό σώμα - και μάλιστα επαυξήθηκε με ολοκληρωμένα κυκλώματα (τσιπάκια) που φυτεύτηκαν στο μυαλό του. Ας δούμε τις προϋποθέσεις μια-μια:

 

 

 

Πρώτον, η δυνατότητα λήψης ορθής απόφασης για εκτέλεση. Μια παραδοσιακή σχολή σκέψης υποστηρίζει ότι μόνο η λογική, η απαλλαγμένη από κάθε είδους συναισθηματική στρέβλωση, μπορεί να οδηγήσει σε ορθές αποφάσεις. Συμφωνεί όμως αυτό με τα νευροεπιστημονικά δεδομένα; Και αρκεί ένας ορθός μηχανισμός λήψης αποφάσεων για ορθές αποφάσεις, ή μήπως χρειαζόμαστε τουλάχιστον ακόμα δύο συστατικά: πρώτον, πληροφορίες και δεύτερον, ένα ξεκάθαρο - και πρακτικά υπολογίσιμο - ηθικό σύστημα;

 

Είναι όμως το συναίσθημα πάντα αντίπαλος της λογικής; Το 1848, μια μεγάλη έκρηξη, έσπρωξε μια μεταλλική ράβδο μεγάλου μήκους με τόση ορμή, ώστε διαπέρασε το κρανίο ενός νεαρού εργάτη σιδηροδρόμου: του Φινέα Γκέητζ, το όνομα του οποίου έμεινε ιστορικό στις νευροεπιστήμες. Πάρα πολλοί άλλοι άνθρωποι με συγκεκριμένες εγκεφαλικές κακώσεις, έχουν αποτελέσει σημαντικές πηγές για την μελέτη του ανθρωπίνου εγκεφάλου και της σχέσεως του με την νόηση και την συμπεριφορά. Το ενδιαφέρον για μας στοιχείο από τέτοιες μελέτες είναι  ότι άνθρωποι με κακώσεις σε περιοχές που σχετίζονται κυρίως με την συναισθηματική (και όχι την λογική) λειτουργία, τελικά καταλήγουν να έχουνε σημαντικό πρόβλημα και σε διαδικασίες που εκ πρώτης όψεως φαίνονται καθαρά «λογικές», όπως η επίλυση μαθηματικών προβλημάτων (Damasio, το σφάλμα του Καρτεσίου).

 

O Φινέας Γκέητζ μετά το τραγικότερο στην ιστορία της χειρουργικής εργατικό ατύχημά του(scilogs.com)

 

Επίσης, αναλύοντας την διαδικασία σκέψης της επίλυσης ενός μαθηματικού προβλήματος, φαίνεται ότι πέρα από τα εύκολα βήματα μιας απόδειξης, όπου υπάρχει συνειδητή επίγνωση και δοκιμή διαφόρων πιθανών επομένων βημάτων, υπάρχουνε και βήματα που απαιτούνε ένα «νοητικό άλμα», στα οποία παύει να υπάρχει επίγνωση μιας αλληλουχίας σκέψεων που οδηγεί στη λύση - και η λύση φαίνεται απλά να «μας έρχεται». Κατά τη διάρκεια αυτών ακριβώς των νοητικών αλμάτων, που αποτελούνε μέρος της επίλυσης προβλημάτων που φαίνονται καθαρά λογικά, φαίνεται να υπεισέρχονται εγκεφαλικές λειτουργίες και περιοχές που σχετίζονται με συναισθήματα: μια αποτίμηση της γεύσης χιλιάδων δυνατών επομένων βημάτων συμβαίνει αστραπιαία, και μερικά από αυτά εξέρχονται ως λύση της διαδικασίας. Άρα, αυτό που φαινομενικά ονομάζουμε «λογική νοητική διαδικασία» αλληλοσυμπληρώνεται με κάποιες μορφές συναισθηματικά επιχρωματισμένων διαδικασιών ταχείας ολιστικής αποτίμησης - οπότε δεν είναι πάντα το συναίσθημα αντίπαλος της λογικής - αλλά σε κάποιες περιπτώσεις φαίνεται να είναι και απαραίτητος σύμμαχος της, ώστε να ληφθούν βέλτιστες αποφάσεις!

 

Βέβαια, αυτό δεν σημαίνει ότι δεν υπάρχουνε συναισθηματικές και άλλες συστηματικές στρεβλώσεις (cognitive biases) που μας κάνουνε να αποκλίνουμε από τις ορθές αποφάσεις - και πολλές από αυτές έχουνε μελετηθεί σε βάθος, π.χ. σε σχέση με την λήψη οικονομικών αποφάσεων -  όπως στο Nobel οικονομικών των Kahneman και Tverksy. Αλλά ακόμα και κάποιες από αυτές τις φαινομενικές αποκλίσεις, μπορούνε να δικαιολογηθούν σε κάποιες περιπτώσεις αν τις δούμε μέσα σε ένα ευρύτερο πλαίσιο, π.χ. της νοητικής οικονομίας και του bounded rationality.  Δηλαδή, τα πράγματα σε σχέση με την εμπλοκή συναισθηματικών διαδικασιών στην λήψη ορθών αποφάσεων, απλά, δεν είναι τόσο απλά! Και εξαρτώνται πολύ από το πως κανείς οριοθετεί την τεχνητή διχοτόμηση μεταξύ λογικής και συναισθήματος - που κατά άλλους δεν αποτελούνε διακριτές κατηγορίες, αλλά συμμετέχουνε σε ένα πιο ολιστικό συνεχή χάρτη νοητικών ποικιλιών.

 

Οπότε, δεν υπερτερούνε κατ' ανάγκη και πάντα οι μηχανές από τους ανθρώπους ως προς τη λήψη ορθών αποφάσεων, τουλάχιστον όχι λόγω της «έλλειψης συναισθηματικών στρεβλώσεων». Όμως, αν είναι έτσι, και αν τελικά απαιτείται μερικές φορές και τεχνητή συναισθηματική νοημοσύνη από τις μηχανές, θα μπορέσουνε ποτέ οι μηχανές να «έχουνε συναισθήματα»; Και εδώ εισέρχεται ένας ακόμα δημοφιλής μύθος: ότι τα συναισθήματα αποτελούνε μόνο ανθρώπινη ιδιότητα. Παρά ταύτα, και πάλι βέβαια αφού αποσαφηνίσει κανείς εμπειρικά ελέγξιμες ενδείξεις που να επιβεβαιώνουνε την πρόταση «η οντότητα Χ έχει συναισθήματα» (όπου Χ είμαι εγώ, ο Γιώργος, ο Γάτος μου, ή το Ρομπότ μου) για να ξέρουμε για τι μιλάμε, φαίνεται ότι ακόμα και οι σημερινές μηχανές (πόσο μάλλον οι μελλοντικές) έχουνε κάποιες δυνατότητες συναισθηματικής νοημοσύνης! Π.χ. υπάρχουνε προγράμματα που διαβάζουνε ανθρώπινες εκφράσεις στο πρόσωπο ή τον τόνο της φωνής και τον κατηγοριοποιούνε ως «φοβισμένο» ή «ευτυχισμένο» κλπ. Και υπάρχουνε και εικονικοί χαρακτήρες ή ρομπότ που χαμογελάνε ή κατσουφιάζουνε ανάλογα με την διάδρασή τους - όπως και το πολύ δημοφιλές στην Ιαπωνία παιχνίδι Tamagochi - ένα εικονικό ανθρωπάκι τσέπης που θέλει φροντίδα για να παραμένει ευτυχισμένο και να αναπτύσσεται! Σε κάποιες περιπτώσεις μάλιστα, αυτά τα προγράμματα μπορεί να είναι πιο ακριβή από τους ανθρώπους στην αναγνώριση λεπτών ενδείξεων συναισθημάτων. Και το μέλλον του "affective computing" ως τομέα διαγράφεται λαμπρό.

Αν δεχτούμε ότι ο συνάνθρωπος μας, στου οποίου τα συναισθήματα δεν έχουμε πρωτογενή πρόσβαση, αλλά μόνο δευτερογενή, έχει συναισθήματα, τότε έπεται ότι και οι μηχανές μπορούνε να έχουνε όχι μόνο συναισθηματική νοημοσύνη αλλά και συναισθήματα, σύμφωνα με την παραπάνω θεώρηση

 

Όμως, το να μπορεί ένα μηχάνημα να αναγνωρίζει συναισθήματα, ή να δίνει την αίσθηση ότι βρίσκεται σε συναισθηματικές καταστάσεις, αυτό σημαίνει ότι ΕΧΕΙ ΟΝΤΩΣ συναισθήματα; Από μια πιο οντολογική προσέγγιση, αυτό είναι ενδεχομένως αμφιλεγόμενο. Με μια πιο φαινομενολογική όμως, όχι και τόσο. Σκεφτείτε π.χ. το τι σας κάνει να πιστεύετε ότι οποιοσδήποτε άλλος άνθρωπος, πέρα από το εαυτό σας, έχει συναισθήματα: παρατηρείτε απλά τις εκφράσεις του και την συμπεριφορά του, και έτσι συνάγετε ότι «Για να φαίνεται έτσι, πρέπει να αισθάνεται Χ». Είχατε όμως ποτέ άμεση, πρωτογενή πρόσβαση, στην εσωτερική κατάσταση οποιουδήποτε άλλου ανθρώπου πλην του εαυτού σας;  Ή τελικά, ακόμα και αυτό είναι μια δευτερογενής πεποίθηση (πιστεύω ότι πιστεύει Χ, πιστεύω ότι αισθάνεται Χ κλπ.); Και μια και από αυτά που βλέπουμε πιστεύουμε ότι ο Γιώργος αισθάνεται χαρούμενος, και όχι μόνο ο Γιώργος, αλλά και ο σκύλος μας όταν κουνάει την ουρά του, για ποιό λόγο να είναι κάτι το εντελώς διαφορετικό όταν ένα ρομπότ χαμογελά; Έτσι και αλλιώς, ποτέ δεν μπήκαμε στο μυαλό του Γιώργου ή του σκύλου μας - όπως και του ρομπότ, για να αισθανθούμε άμεσα ότι αισθάνεται. Και δεν αναφέρομαι σε όλα αυτά για να σας οδηγήσω σε ένα σκεπτικιστικό σολιψισμό (στην αργκό της φιλοσοφίας), απλά για να σας θυμίσω ότι μόνο στα δικά σας συναισθήματα έχετε πρωτογενή (άμεση) πρόσβαση (και πάλι, μάλιστα, μερική!), και ότι τα συναισθήματα οποιασδήποτε άλλης οντότητας (ανθρώπινης, ζωικής, ή ρομποτικής) απλά μπορείτε να τα υποθέσετε δευτερογενώς, σε σχέση με αυτά που βλέπετε. Άρα: ναι, αν δεχτούμε ότι ο συνάνθρωπος μας, στου οποίου τα συναισθήματα δεν έχουμε πρωτογενή πρόσβαση, αλλά μόνο δευτερογενή, έχει συναισθήματα, τότε έπεται ότι και οι μηχανές μπορούνε να έχουνε όχι μόνο συναισθηματική νοημοσύνη αλλά και συναισθήματα, σύμφωνα με την παραπάνω θεώρηση. Εκτός βέβαια αν αξιωματικά δεχτούμε ότι υπάρχει μια κάποια άλλη ουσιώδης διαφορά στην περίπτωση των μηχανών, που εκ προοιμίου τις απαγορεύει να έχουν συναισθήματα. Αλλά τότε, αυτό δεν θα είναι κάτι που προκύπτει λογικά, όπως ο παραπάνω συλλογισμός: απλά θα προϋποτίθεται δογματικά.

 

Άρα, σε σχέση με την πρώτη προϋπόθεση της δυνατότητας έκδοσης «άδειας φόνου», αυτήν της λήψης ορθών αποφάσεων, δεν φαίνεται να υπάρχει καθαρό προβάδισμα ανθρώπων ή μηχανών, τουλάχιστον καθολικό ή εκ προοιμίου, και σίγουρα όχι λόγω της «συναισθηματικής μόλυνσης» των ανθρώπων - κάθε άλλο μάλιστα. Έτσι και αλλιώς, η έλλειψη καθαρού προβαδίσματος ισχύει και σε πολλά ακόμα πεδία σύγκρισης μεταξύ ανθρώπων και μηχανών: π.χ. το Deep Blue της IBM νικάει τον παγκόσμιο πρωταθλητή σκακιού Kasparov - ενώ σε πολλά προβλήματα αναγνώρισης προτύπων οι άνθρωποι υπερτερούνε κατά πολύ των μηχανών - ακόμα τουλάχιστον. Πάντως, η ειδική εκπαίδευση ανθρώπων ώστε να μειώνονται οι ανεπιθύμητες συναισθηματικές στρεβλώσεις, ενώ είναι μερικώς δυνατή σήμερα, φαίνεται να είναι και αργή, και επίπονη, και με συχνά αβέβαια αποτελέσματα και μερικώς φορές ανεπιθύμητες παράπλευρες συνέπειες. Και εκτός αυτού, το γεγονός ότι σήμερα δεν φαίνεται να υπάρχει καθαρό προβάδισμα ούτε στον άνθρωπο ούτε στην μηχανή, δεν σημαίνει ότι στο μέλλον τα πράγματα θα είναι παρόμοια; ενδέχεται οι τάσεις μεταβολής, όπως και η ύπαρξη εγγενών η μη άνω φραγμάτων, να οδηγήσουνε σε ανατροπές στο μέλλον.  Αλλά, έτσι και αλλιώς, όπως θα δούμε αργότερα, τελικά αυτό που πραγματικά μας ενδιαφέρει στην πράξη δεν είναι τα συστήματα απομονωμένων ανθρώπων ή μηχανών; αλλά η δυνατότητα χαλαρής η στενότερης σύνδεσης πολλών ανθρώπων και μηχανών για τη δημιουργία συστημάτων που παρουσιάζουν συλλογική νοημοσύνη.