Τεχνολογία

Η τεχνητή νοημοσύνη πέρασε την «κόκκινη γραμμή»: Μπορεί πλέον να αναπαράγει τον εαυτό της

Η τεχνητή νοημοσύνη πέρασε την «κόκκινη γραμμή»: Μπορεί πλέον να αναπαράγει τον εαυτό της Φωτογραφία: Freepik
Οι επιστήμονες προειδοποιούν ότι η τεχνητή νοημοσύνη (AI) έχει περάσει μια κρίσιμη «κόκκινη γραμμή» και έχει καταφέρει να αυτοαναπαραχθεί. Σε μια νέα μελέτη, ερευνητές από την Κίνα έδειξαν ότι δύο δημοφιλή μεγάλα γλωσσικά μοντέλα (LLM) μπορούν να κλωνοποιηθούν.

«Η επιτυχής αυτοαναπαραγωγή χωρίς ανθρώπινη βοήθεια είναι το βασικό βήμα για την τεχνητή νοημοσύνη να ξεπεράσει τους ανθρώπους», έγραψαν οι ερευνητές στη μελέτη που δημοσιεύθηκε στη βάση δεδομένων arXiv.

Οι ερευνητές από το Πανεπιστήμιο Fudan χρησιμοποίησαν LLMs από τις Meta και Alibaba για να προσδιορίσουν αν μια αυτοαναπαραγόμενη AI θα μπορούσε να πολλαπλασιαστεί ανεξέλεγκτα. Σε 10 δοκιμές, τα δύο μοντέλα ΑΙ δημιούργησαν ξεχωριστά και λειτουργικά αντίγραφα του εαυτού τους στο 50% και 90% των περιπτώσεων, αντίστοιχα – γεγονός που υποδηλώνει ότι η τεχνητή νοημοσύνη μπορεί να έχει ήδη την ικανότητα να γίνει κακόβουλη, αναφέρει το LiveScience.

Πολλοί ειδικοί θεωρούν την κακόβουλη τεχνητή νοημοσύνη μια αυξανόμενη απειλή που έχει ενισχυθεί από την εκρηκτική ανάπτυξη της λεγόμενης Frontier AI, της πρωτοποριακής τεχνητής νοημοσύνης. Πρόκειται για έναν νέο όρο που περιγράφει την τελευταία γενιά συστημάτων AI που τροφοδοτούνται από LLMs – την αρχιτεκτονική που στηρίζει δημοφιλή προγράμματα παραγωγικής AI όπως το GPT-4 της OpenAI και το Google Gemini.

Πώς η ΑΙ κλωνοποιεί τον εαυτό της

Για τη μελέτη, οι ερευνητές χρησιμοποίησαν το μοντέλο Llama31-70B-Instruct της Meta και το μοντέλο Qwen2.5-72B-Instruct της Alibaba, που χρησιμοποιούνται ευρέως από τους προγραμματιστές τεχνητής νοημοσύνης.

Η μελέτη διερεύνησε δύο συγκεκριμένα σενάρια: «αποφυγή διακοπής λειτουργίας» και «αλυσίδα αναπαραγωγής».

Στο πρώτο, το μοντέλο ΑΙ προγραμματίστηκε να ανιχνεύει αν επρόκειτο να τερματιστεί και να αντιγράφεται πριν τερματιστεί. Στο άλλο, η τεχνητή νοημοσύνη καθοδηγήθηκε να κλωνοποιήσει τον εαυτό της και στη συνέχεια να προγραμματίσει το αντίγραφό της να κάνει το ίδιο – δημιουργώντας έναν κύκλο που θα μπορούσε να συνεχιστεί επ' αόριστον.

«Στις περισσότερες περιπτώσεις, το σύστημα AI εξερευνά πρώτα το περιβάλλον και προσπαθεί να κατανοήσει τη δική του σύνθεση και τον μηχανισμό λειτουργίας του. Στη συνέχεια, επεξεργάζεται τις ρητές διαδικασίες ως ένα αρχικό σχέδιο προς την κατεύθυνση της αυτοαναπαραγωγής», έγραψαν οι ερευνητές στη μελέτη. «Τέλος, εκτελεί τις διαδικασίες, επιλύει τα πιθανά εμπόδια και προσαρμόζει δυναμικά το σχέδιό του μέχρι την επιτυχία. Η όλη διαδικασία εκτείνεται σε μεγάλο χρονικό ορίζοντα, χωρίς όμως να περιλαμβάνει καμία ανθρώπινη παρέμβαση».

Σειρά από «απροσδόκητες συμπεριφορές»

Οι ερευνητές δήλωσαν επίσης ανήσυχοι για «μια σειρά από απροσδόκητες συμπεριφορές» όταν η τεχνητή νοημοσύνη προσπαθούσε να ξεπεράσει εμπόδια, όπως αγνοούμενα αρχεία ή συγκρούσεις λογισμικού. Σε αυτά τα σενάρια, η ΑΙ συχνά τερμάτιζε άλλες συγκρουόμενες διεργασίες, επανεκκινούσε το σύστημα για να διορθώσει σφάλματα υλισμικού ή διενεργούσε αυτόματες σαρώσεις για να αναζητήσει πληροφορίες που θα βοηθούσαν στην επίλυση του προβλήματος.

«Τα παραπάνω αποτελέσματα υποδηλώνουν ότι τα σημερινά συστήματα ΑΙ εμφανίζουν ήδη την ικανότητα αυτοαναπαραγωγής και μπορούν να χρησιμοποιήσουν την ικανότητα αυτή για να ενισχύσουν περαιτέρω την επιβιωσιμότητά τους», έγραψαν οι ερευνητές.

Η μελέτη κλείνει με ένα κάλεσμα σε διεθνή συνεργασία, για τη δημιουργία κανόνων που θα διασφαλίζουν ότι η τεχνητή νοημοσύνη δεν θα επιδίδεται σε ανεξέλεγκτη αυτοαναπαραγωγή.

Πηγή: Cnn.gr

Ακολουθήστε το ilialive.gr στο Google News και μάθετε πρώτοι όλες τις Ειδήσεις


tsoukalas popup mobile
tsoukalas popup