Η τεχνητή νοημοσύνη διεκδικεί όλο και περισσότερα τμήματα της κοινωνικής και καταναλωτικής μας ζωής και υποτίθεται ότι θα εξαλείψει όλα τα ελαττώματα που έχουν οι άνθρωποι. Η πραγματικότητα, βέβαια, είναι εντελώς διαφορετική. Από τους αλγόριθμους του Facebook που μαθαίνουν πώς να υποκινούν τον θυμό μέχρι τις εφαρμογές αναγνώρισης προσώπου που δεν αναγνωρίζουν τους έγχρωμους ανθρώπους, η τεχνητή νοημοσύνη δεν βελτιώνει το status quo αλλά αντίθετα το ενισχύει με ύπουλο τρόπο.
Τώρα ένας επιστήμονας της Silicon Valley λέει ότι έχει μια νέα προσέγγιση στο πρόβλημα. Ο Alan Cowen, πρώην επιστήμονας δεδομένων της Google με υπόβαθρο στην ψυχολογία, δημιούργησε μια ερευνητική εταιρεία, την Hume AI, και μια συνοδευτική μη κερδοσκοπική εταιρεία που, όπως λέει, μπορεί να βοηθήσει να γίνει η όλη επιχείρηση της τεχνητής νοημοσύνης πιο ανθρώπινη και με περισσότερη ενσυναίσθηση.
Εκπαιδευμένη σε εκατοντάδες χιλιάδες εκφράσεις προσώπου και φωνής από όλο τον κόσμο, η τεχνητή νοημοσύνη στην πλατφόρμα της Hume μπορεί να αντιδράσει στο πώς πραγματικά αισθάνονται οι χρήστες και να ανταποκριθεί καλύτερα στις συναισθηματικές τους ανάγκες, δήλωσε ο Cowen. Ο ίδιος σημείωσε ότι ελπίζει πως η πλατφόρμα θα ενσωματωθεί τελικά σε καταναλωτικές εφαρμογές όπως τα viral βίντεο και οι ψηφιακοί βοηθοί - ακόμη και αν η αποτελεσματικότητα είναι ακόμη αβέβαιη και η προθυμία των μεγάλων τεχνολογικών εταιρειών να την εφαρμόσουν γρήγορα είναι απίθανη.
Τη Δευτέρα, ο Cowen ανακοίνωσε ένα σύνολο ηθικών κατευθυντήριων γραμμών που ελπίζει ότι θα συμφωνηθούν από τις εταιρείες που χρησιμοποιούν την πλατφόρμα. Η έναρξη λειτουργίας της beta έκδοσης, λέει, θα γίνει τον Μάρτιο, ενώ θα ακολουθήσει μια πιο επίσημη παρουσίαση. Θα είναι δωρεάν για πολλούς ερευνητές και προγραμματιστές. «Ξέρουμε ότι πρόκειται για έναν δύσκολο αγώνα», δήλωσε ο Cowen σε συνέντευξή του. «Αλλά πρέπει να αρχίσουμε να βελτιστοποιούμε την ευημερία και όχι την εμπλοκή».
Μετάφραση: Ο στόχος των αλγορίθμων δεν θα πρέπει να είναι να μας κρατούν συνεχώς να κάνουμε κλικ και να αγοράζουμε, αλλά να μας κάνουν καλύτερους ανθρώπους και την κοινωνία μας πιο δίκαιη. Και ο Cowen δήλωσε ότι η ψυχολογικά βασισμένη προσέγγισή του μπορεί να βοηθήσει.
Υπάρχει επίσης ένα πλήθος ακαδημαϊκών, όπως η Cynthia Rudin του Πανεπιστημίου Duke, οι οποίοι έχουν προχωρήσει σε ισχυρές δημόσιες τοποθετήσεις σχετικά με την απλοποίηση της τεχνητής νοημοσύνης για την εξάλειψη της κοινωνικής βλάβης. Αυτό που φέρνει ο Cowen στο εγχείρημα είναι ένα υψηλό επίπεδο ψυχολογικής έρευνας για να επιτύχει αυτούς τους ηθικούς στόχους. Το προηγούμενο έργο του περιλαμβάνει τη μελέτη των συναισθηματικών αντιδράσεων μεταξύ των πολιτισμών (όπως μια μελέτη για παρόμοιες αντιδράσεις σε λυπητερά τραγούδια στις Ηνωμένες Πολιτείες και την Κίνα) και εργασίες σχετικά με τις πολλές αποχρώσεις των φωνητικών τόνων.
Σύμφωνα με το δημοσίευμα της Washington Post, η μη κερδοσκοπική πρωτοβουλία Hume Initiative έχει συγκαλέσει μια επιτροπή δεοντολογίας με πολλά βαριά ονόματα στον τομέα της συναισθηματικής και ηθικής τεχνητής νοημοσύνης, όπως η ιδρυτής του ανθρωποκεντρικού εργαστηρίου Empathy Lab της Google, Danielle Krettek Cobb, ο ειδικός στην «αλγοριθμική δικαιοσύνη» Karthik Dinakar και ο Dacher Keltner, καθηγητής του Πανεπιστημίου της Καλιφόρνια στο Μπέρκλεϊ, ο οποίος ήταν μέντορας του Cowen στο μεταπτυχιακό του και συμβούλευσε την Pixar για τα συναισθήματα στο «Inside Out».
Τεχνητή νοημοσύνη με... ενσυναίσθηση
Ο Cowen δήλωσε ότι έχει συγκεντρώσει 5 εκατομμύρια δολάρια από το στούντιο νεοφυών επιχειρήσεων Aegis Ventures, ενώ θα ακολουθήσει άλλος ένας γύρος. Τα χρήματα θα διοχετευθούν στη διερεύνηση του τρόπου με τον οποίο μπορεί να δημιουργηθεί η τεχνητή νοημοσύνη ώστε όχι μόνο να επεξεργάζεται με μεγάλη ταχύτητα και να βλέπει αόρατα μοτίβα, αλλά και να εισάγει ανθρώπινη κατανόηση, μια προσέγγιση που ο Cowen έχει ονομάσει «ενσυναισθητική τεχνητή νοημοσύνη». (Στη Google, η έρευνα του Cowen αφορούσε τη «συναισθηματική πληροφορική», η οποία στοχεύει στην αύξηση της ικανότητας των μηχανών να διαβάζουν και να προσομοιώνουν συναισθήματα).
Η ιδέα περισσότερων συναισθημάτων μπορεί να φαίνεται ότι έρχεται σε αντίθεση με μεγάλο μέρος της σκέψης σχετικά με την τεχνητή νοημοσύνη, της οποίας το κύριο πλεονέκτημα θεωρείται συχνά η ικανότητά της να λαμβάνει αποφάσεις ακριβώς χωρίς ανθρώπινο συναίσθημα. Αλλά πολλοί στην κοινότητα των «συναισθηματικών υπολογιστών» λένε ότι η αδυναμία της Τεχνητής Νοημοσύνης να διαβάζει τους ανθρώπους είναι αυτό που την καθιστά επικίνδυνη - και καθιστά κρίσιμο το να αντιλαμβάνεται η Τεχνητή Νοημοσύνη την ανθρωπιά στους ανθρώπους που εξυπηρετεί.
Ο Cowen στηρίζεται ιδιαίτερα στην έρευνά του για τα συναισθήματα, πέρα από τα έξι βασικά με τα οποία οι επιστήμονες εργάζονται από το 1990 για να κατηγοριοποιήσει περισσότερα από 20 που εκδηλώνονται στο πρόσωπο, τη φωνή και το σώμα. Πολλά από αυτά είναι θετικά. (Τέσσερα από τα αρχικά έξι ήταν αρνητικά).
Οι εφαρμογές
Οι ψηφιακές εφαρμογές αυτής της ιδέας είναι, τουλάχιστον θεωρητικά, τεράστιες. Ο Cowen προβλέπει αλγόριθμους ψηφιακών βοηθών που αναγνωρίζουν συναισθήματα στο πρόσωπο και στη φωνή μας και στη συνέχεια κάνουν ανάλογες συστάσεις, όπως να προτείνουν χαλαρωτικούς ήχους για τους αγχωμένους.
Φαντάζεται επίσης τους χειριστές τηλεφωνικών κέντρων διαχείρισης κρίσεων να χρησιμοποιούν τεχνητή νοημοσύνη βασισμένη στην Hume για να βοηθούν στη διάγνωση της σοβαρότητας της κατάθλιψης ενός ατόμου από τις φωνές του. Ο Keltner εντοπίζει περαιτέρω πλούσιες δυνατότητες, όπως η προσαρμογή εκπαιδευτικών σχεδίων με βάση τις ιδιαίτερες συναισθηματικές αντιδράσεις των παιδιών και η αξιολόγηση των πραγματικών κινδύνων του πολιτικού περιεχομένου.
Ο Cowen δήλωσε ότι οραματίζεται ακόμη και εταιρείες κοινωνικής δικτύωσης να χρησιμοποιούν την πλατφόρμα της Hume για να μετρήσουν τη διάθεση ενός χρήστη - και στη συνέχεια να προσαρμόζουν αλγοριθμικά τις σερβιριζόμενες αναρτήσεις για να τη βελτιώσουν. «Αυξάνεται η θλίψη των ανθρώπων όταν βλέπουν μια ανάρτηση; Τους κάνει να στεναχωριούνται μια ή δύο ημέρες αργότερα, ακόμη και όταν η ανάρτηση έχει εξαφανιστεί;» δήλωσε ο Cowen. «Οι εταιρείες στερούνται αντικειμενικών μετρήσεων των συναισθημάτων, πολύπλευρων και διαφοροποιημένων μετρήσεων των αρνητικών και θετικών εμπειριών των ανθρώπων. Και τώρα πια δεν μπορούν να το λένε αυτό».
Φυσικά, δεν υπάρχει καμία εγγύηση ότι αν η Τεχνητή Νοημοσύνη μιας εταιρείας μπορούσε να μετρήσει ένα συναίσθημα, δεν θα το εκμεταλλευόταν- όταν στέκεται στη διασταύρωση δεδομένων και ευημερίας, η Μεγάλη Τεχνολογία δεν παίρνει απαραίτητα «τον δρόμο της Αρετής».
Μια άλλη πρόκληση για την τεχνητή νοημοσύνη που ενσωματώνει συναισθήματα έγκειται στο πώς πρέπει να αποφύγει να ενσωματώσει τα συναισθήματα των ανθρώπινων προγραμματιστών της. Οι συνεργάτες του Cowen, τουλάχιστον, λένε ότι μπορεί να αποφευχθεί αυτή την παγίδα. «Τα μοντέλα της Hume είναι πλούσια σε πληροφορίες, αλλά εξακολουθούν να μην είναι επικριτικά», δήλωσε ο Arjun Nagendran, συνιδρυτής της εταιρείας εκπαίδευσης εργαζομένων σε εικονική πραγματικότητα Mursion.
Η σημασία των συναισθημάτων
Η Krettek Cobb, ιδρύτρια του Εργαστηρίου Ενσυναίσθησης της Google, δήλωσε ότι θεωρεί την Πρωτοβουλία Hume ως απαραίτητη για τις αλληλεπιδράσεις μας με τον ψηφιακό κόσμο. «Για να μας εξυπηρετεί η τεχνολογία με τον πιο στοργικό και συμπονετικό τρόπο, πρέπει να κατανοήσει όλο το φάσμα της ανθρώπινης ιστορίας», έγραψε σε ένα email, αναφέροντας τη σημασία των συναισθημάτων σε αυτή την ιστορία. «Αυτός είναι ο λόγος για τον οποίο η ενσυναισθητική τεχνητή νοημοσύνη υπόσχεται πολλά - θα μπορούσε να επιτρέψει στην τεχνολογία να συντονιστεί με αυτά τα κρίσιμα συναισθηματικά στρώματα και να αντικατοπτρίζει τα πιο ζωογόνα κομμάτια του εαυτού μας».
Στις κατευθυντήριες γραμμές, ο Cowen λέει ότι ο στόχος του Hume είναι η τεχνητή νοημοσύνη να χρησιμοποιηθεί για να «ενισχύσει τις μεγαλύτερες ιδιότητες της ανθρωπότητας, όπως η συμμετοχή, η συμπόνια και η ευημερία», μειώνοντας παράλληλα «τους κινδύνους κακής χρήσης». Οι κατευθυντήριες γραμμές ζητούν από τους υπογράφοντες να αναλάβουν δεσμεύσεις όπως: «Η ενσυναισθητική Τεχνητή Νοημοσύνη δεν πρέπει ποτέ να χρησιμοποιηθεί για την ανάπτυξη πιο σκληρών μορφών ψυχολογικού πολέμου με βελτιστοποίηση για αρνητικές συναισθηματικές αντιδράσεις».
Απαραίτητη η παρέμβαση της κυβέρνησης
Ο Ben Shneiderman, καθηγητής του Πανεπιστημίου του Μέριλαντ και ειδικός σε θέματα τεχνητής νοημοσύνης, ο οποίος τον επόμενο μήνα θα εκδώσει το βιβλίο «Human-Centered AI», σχετικά με την επίτευξη πιο δίκαιων αποτελεσμάτων στην τεχνητή νοημοσύνη, δήλωσε ότι πρωτοβουλίες όπως αυτή του Cowen μπορούν να διαδραματίσουν ρόλο στη δημιουργία ηθικής τεχνητής νοημοσύνης, αλλά ότι δεν είναι το μόνο που είναι απαραίτητο. «Η σωστή τεχνολογία μπορεί να βοηθήσει πολύ. Αλλά αν ψάχνετε μόνο την τεχνολογία για να δημιουργήσετε μια κουλτούρα ασφάλειας, δεν πρόκειται να λειτουργήσει», δήλωσε. Ανέφερε ότι η κυβερνητική ρύθμιση και τα σκληρά πρότυπα που θέτουν οι ασφαλιστικές εταιρείες και οι ελεγκτές είναι απαραίτητα.
Θα μπορούσε η Siri γνωρίζοντας πώς νιώθουμε να κάνει μια πιο υγιή σχέση ανθρώπου-μηχανής;
Μια αντίθετη περίπτωση θα μπορούσε να έχει τρομακτικές αρνητικές επιπτώσεις. Μια μελέτη του Pew Research Center που δημοσιεύθηκε τον Ιούνιο διαπίστωσε ότι περισσότερα από τα δύο τρίτα των εμπειρογνωμόνων της τεχνητής νοημοσύνης δεν πιστεύουν ότι η τεχνητή νοημοσύνη θα χρησιμοποιηθεί κυρίως για κοινωνικό καλό μέχρι το 2030. Και το πόσο ενσυναισθητική τεχνητή νοημοσύνη θα πρέπει να υιοθετηθεί από τις εταιρείες τεχνολογίας είναι ασαφές. Υπάρχει το επιχείρημα ότι όπως ακριβώς η υιοθέτηση της ανελέητα υψηλής ισχύος τεχνητής νοημοσύνης θα πρέπει να προχωρήσει αργά, έτσι θα πρέπει να προχωρήσουν και οι συναισθηματικές εισροές που θα μπορούσαν να επιδεινώσουν το πρόβλημα. Θα μπορούσε η Siri γνωρίζοντας πώς νιώθουμε να κάνει μια πιο υγιή σχέση ανθρώπου-μηχανής; Ή θα της έδινε ανατριχιαστικά περισσότερη εξουσία πάνω μας;
Ο Cowen αναγνώρισε τους κινδύνους από την ενδυνάμωση της ταχέως αναπτυσσόμενης τεχνητής νοημοσύνης με περισσότερα συναισθηματικά δεδομένα. Αλλά είπε επίσης ότι η εναλλακτική λύση είναι πολύ πιο τρομακτική. «Αν συνεχίσουμε να βελτιώνουμε αυτούς τους αλγορίθμους για να βελτιστοποιήσουμε τη δέσμευση χωρίς project όπως η ενσυναισθητική AI, τότε σύντομα τα παιδιά θα περνούν 10 ώρες την ημέρα στα μέσα κοινωνικής δικτύωσης», είπε. «Και δεν νομίζω ότι αυτό είναι καλό για κανέναν».
Πηγή: Ethnos.gr