Τεχνολογία

Το πρόβλημα με τα εργαλεία τεχνητής νοημοσύνης είναι ότι συχνά…επινοούν απαντήσεις

Το πρόβλημα με τα εργαλεία τεχνητής νοημοσύνης είναι ότι συχνά…επινοούν απαντήσεις

Εργαλεία τεχνητής νοημοσύνης όπως το ChatGPT συχνά… αυτοσχεδιάζουν, επινοώντας απαντήσεις

Εργαλεία τεχνητής νοημοσύνης (ΤΝ), όπως το ChatGPT, μας έχουν μαγέψει με την ικανότητά τους να παράγουν έγκυρες, ρεαλιστικές και «ανθρώπινες» απαντήσεις σε φαινομενικά οποιαδήποτε ερώτησή μας.

Όμως, καθώς όλο και περισσότεροι άνθρωποι στρέφονται στη συγκεκριμένη τεχνολογία για πράγματα όπως η μελέτη για το σχολείο, η έρευνα για μια εργασία ή ερωτήματα σχετικά με την υγεία, μία από τις μεγαλύτερες «παγίδες» της γίνεται όλο και πιο εμφανής: τα μοντέλα ΤΝ συχνά… αυτοσχεδιάζουν, απλά επινοώντας απαντήσεις.

Oι ερευνητές έχουν καταλήξει να αναφέρονται σε αυτή την τάση των μοντέλων ΤΝ να παρέχουν ανακριβείς πληροφορίες ως «ψευδαισθήσεις» ή «συγχύσεις», όπως δήλωσε ο επικεφαλής ΤΝ της Meta σε ένα tweet. Ορισμένοι χρήστες των μέσων κοινωνικής δικτύωσης, εν τω μεταξύ, απλά χαρακτηρίζουν τα chatbots «παθολογικούς ψεύτες».

Αλλά όλοι αυτοί οι χαρακτηρισμοί προέρχονται από την τάση μας να ανθρωπομορφοποιούμε τις ενέργειες των μηχανών, σύμφωνα με τον Σουρές Βενκατασουμπραμανιάν, καθηγητή στο Πανεπιστήμιο Brown, ο οποίος βοήθησε στη συν-συγγραφή του προσχεδίου του Λευκού Οίκου για ένα νομοσχέδιο για τα ανθρώπινα δικαιώματα στην εποχή της τεχνητής νοημοσύνης.

Τα μεγάλα γλωσσικά μοντέλα – η τεχνολογία πίσω από τα εργαλεία ΤΝ όπως το ChatGPT – απλά εκπαιδεύονται για να «παράγουν μια απάντηση που να ακούγεται εύλογη» στις προτροπές των χρηστών.

«Υπό αυτή την έννοια, οποιαδήποτε απάντηση που ακούγεται εύλογη, είτε είναι ακριβής ή όχι, πραγματική ή επινοημένη, είναι μια λογική απάντηση. Και αυτό είναι που παράγουν», λέει ο Βενκατασουμπραμανιάν.

Τι σημαίνει ψευδαίσθηση τεχνητής νοημοσύνης;

Με απλά λόγια, ο όρος ψευδαίσθηση χρησιμοποιείται όταν ένα μοντέλο ΤΝ «αρχίζει να επινοεί πράγματα – πράγματα που δεν συνάδουν με την πραγματικότητα», σύμφωνα με τον Τζέβιν Γουέστ, καθηγητή στο Πανεπιστήμιο της Ουάσινγκτον και συνιδρυτή του Κέντρου για ένα Ενημερωμένο Κοινό.

«Αλλά το κάνει με πραγματική αυτοπεποίθηση», προσθέτει ο Γουέστ, «και το κάνει με την ίδια αυτοπεποίθηση που θα το έκανε αν του θέτατε μια πολύ απλή ερώτηση όπως "Ποια είναι η πρωτεύουσα των Ηνωμένων Πολιτειών;"».

Αυτό σημαίνει ότι μπορεί να είναι δύσκολο για τους χρήστες να διακρίνουν τι είναι αλήθεια και τι όχι, αν ρωτούν ένα chatbot κάτι στο οποίο δεν γνωρίζουν ήδη την απάντηση, επισημαίνει ο Γουέστ.

Χαρακτηριστικό είναι το παράδειγμα ενός βετεράνου δικηγόρου της Νέας Υόρκης που τον περασμένο Μάιο βρέθηκε σε δύσκολη θέση όταν χρησιμοποίησε το ChatGPT για νομική έρευνα και υπέβαλε μια αναφορά που περιλάμβανε έξι ανύπαρκτες υποθέσεις τις οποίες το chatbot φαίνεται ότι απλώς επινόησε.

Ένας τομέας στον οποίο αυτές τοι ψευδαισθήσεις της ΤΝ αποδεικνύονται χρήσιμες, είναι οι τέχνες. Για παράδειγμα, όταν ο χρήστης ζητάει από το ChatGPT να τον βοηθήσει να γράψει ποίηση ή στίχους τραγουδιών.

Ταυτόχρονα είναι προφανής ο κίνδυνος όταν οι άνθρωποι στρέφονται σε αυτή την τεχνολογία για να αναζητήσουν απαντήσεις που θα μπορούσαν να επηρεάσουν την υγεία τους, την εκλογική τους συμπεριφορά και άλλα δυνητικά ευαίσθητα θέματα, τονίζει ο Γουέστ.

Μπορεί να διορθωθεί το πρόβλημα;

Το Bard της Google και το ChatGPT της OpenAI επιθυμούν να είναι από την αρχή ξεκάθαρα με τους χρήστες τους, επισημαίνοντας ότι μπορεί να παράγουν ανακριβείς απαντήσεις. Και οι εταιρείες έχουν δηλώσει ότι εργάζονται πάνω σε λύσεις.

Νωρίτερα φέτος, ο διευθύνων σύμβουλος της Google Σουντάρ Πιτσάι δήλωσε σε συνέντευξή του στην εκπομπή «60 Minutes» του CBS ότι «κανείς στον τομέα δεν έχει λύσει ακόμη τα προβλήματα ψευδαισθήσεων» και «όλα τα μοντέλα έχουν αυτό το πρόβλημα». Σχετικά με το αν πρόκειται για πρόβλημα που μπορεί να επιλυθεί, ο Πιτσάι δήλωσε: «Είναι ένα θέμα έντονης συζήτησης. Νομίζω ότι θα σημειώσουμε πρόοδο».

Και ο Σαμ Άλτμαν, διευθύνων σύμβουλος της OpenAI, μιλώντας τον περασμένο Ιούνιο στο Ινστιτούτο Τεχνολογίας Πληροφοριών Indraprastha της Ινδίας, έκανε μια τεχνολογική πρόβλεψη λέγοντας ότι θα χρειαστούν ενάμιση ή δύο χρόνια για να «φτάσουμε το πρόβλημα της ψευδαίσθησης σε ένα πολύ, πολύ καλύτερο σημείο».

«Υπάρχει μια ισορροπία μεταξύ της δημιουργικότητας και της τέλειας ακρίβειας», πρόσθεσε. «Και το μοντέλο θα πρέπει να μάθει πότε θέλετε το ένα και πότε το άλλο».

Με πληροφορίες από: AI tools make things up a lot, and that’s a huge problem by Catherine Thorbecke, CNN

Πηγή: Cnn.gr

Ακολουθήστε το ilialive.gr στο Google News και μάθετε πρώτοι όλες τις Ειδήσεις