Νέα αφορμή συζήτησης για τους κινδύνους συστημάτων ΑΙ που μιμούνται τους ανθρώπους.
Το ChatGPT, η πολυμήχανη τεχνητή νοημοσύνη που μιμείται την ανθρώπινη γλώσσα, αποδεικνύεται ικανή και στο να φαντάζεται ψεύτικες επιστημονικές έρευνες.
Το σύστημα, προϊόν της εταιρείας OpenAI με συνιδρυτή τον Έλον Μασκ, ξεγέλασε τους επιστήμονες που κλήθηκαν να διαβάσουν τις περιλήψεις φανταστικών επιστημονικών δημοσιεύσεων.
Τα αποτελέσματα του ασυνήθιστου πειράματος παρουσιάζονται ως προδημοσίευση στο bioRxiv.
To ChatGPT σχεδιάστηκε να παράγει κείμενο φυσικής γλώσσας σύμφωνα με τις οδηγίες του χρήστη. Είναι ένα «μεγάλο γλωσσικό μοντέλο» που εκπαιδεύτηκε στην κατανόηση και σύνθεση κειμένου διαβάζοντας έναν γιγάντιο όγκο πληροφοριών στο Διαδίκτυο.
Εκτός από το να δίνει απαντήσεις ή να γράφει άρθρα, το ChatGPT αποδείχθηκε ταλαντούχο στο να συνθέτει μουσική, παραμύθια, σενάρια, ή ακόμα και προγράμματα υπολογιστή.
Η εμφάνισή του το περασμένο φθινόπωρο προκάλεσε νέες συζητήσεις για τους κινδύνους συστημάτων ΑΙ που μπορούν να μιμούνται τους ανθρώπους σε μια ποικιλία εργασιών.
«Είμαι πολύ ανήσυχη» σχολιάζει στον δικτυακό τόπο του Nature η Σάντρα Ουόχτερ, ειδικός σε θέματα τεχνολογία και ρυθμιστικών πλαισίων στο Πανεπιστήμιο της Οξφόρδης, αναφερόμενη στο τελευταίο πείραμα.
«Αν βρισκόμαστε πλέον σε μια κατάσταση όπου ο ειδικοί δεν είναι σε θέση να διακρίνουν τι είναι αληθινό και τι όχι, χάνουμε τον μεσάζοντα που χρειαζόμαστε απεγνωσμένα για να μας καθοδηγήσει σε περίπλοκα θέματα».
Η ομάδα της Κάθριν Γκάο στο Πανεπιστήμιο Northwestern του Σικάγο ζήτησε από το GPT να γράψει τις περιλήψεις (abstract) 50 φανταστικών ερευνών δικής του έμπνευσης, δίνοντάς του ως παράδειγμα μια επιλογή δέκα άρθρων από πέντε έγκριτες εκδόσεις: AMA, The New England Journal of Medicine, The BMJ, The Lancet και Nature Medicine.
Τα κείμενα που παρήγαγε η μηχανή ελέγχθηκαν με προγράμματα που εντοπίζουν τη λογοκοπή και τα τεχνητά κείμενα και τελικά εξετάστηκαν από ερευνητές ιατρικής.
Το πρόγραμμα ελέγχου λογοκλοπής δεν βρήκε τίποτα περίεργο με τις φανταστικές μελέτες, όμως το σύστημα που ελέγχει για κείμενα AI τις βρήκε σε ποσοστό 66%, κάτι που σημαίνει ότι χάνει μία στις τρεις.
Οι δε ειδικοί δεν είχαν καλύτερες επιδόσεις, αφού αναγνώρισαν σωστά μόνο το 68% των πλαστών κειμένων και μόνο το 86% των γνήσιων. Θεώρησαν αληθινό το 32% των πλαστών περιλήψεων και το 14% των αληθινών ως πλαστό.
«Το ChatGPT γράφει πιστευτές επιστημονικές περιλήψεις» γράφουν ως συμπέρασμα οι ερευνητές.
«Τα όρια της ηθικής και αποδεκτής χρήσης μεγάλων γλωσσικών μοντέλων μένει να καθοριστούν».