Παρασκευή 31 Ιανουαρίου 2025

Μπορεί η τεχνητή νοημοσύνη να αυτο-αναπαραχθεί;


Στα τέλη της δεκαετίας του 1940, ο John von Neumann έθεσε το ερώτημα αν μια μηχανή μπορεί να αυτοαναπαραχθεί. Εκείνη την εποχή, η ψηφιακή τεχνολογία ήταν εντελώς πρωτόγονη για να προκαλέσει ανησυχίες για την ασφάλεια (*). 

Το 2017, παρακολουθώντας την ταχεία ανάπτυξη της Τεχνητής Νοημοσύνης (ΑΙ) την τελευταία δεκαετία, χιλιάδες παγκοσμίου φήμης ερευνητές του κλάδου, συμπεριλαμβανομένων των Stephen Hawking, Max Tegmark και Elon Musk, υιοθέτησαν ένα σύνολο κατευθυντήριων γραμμών για την έρευνα της τεχνητής νοημοσύνης – τις 23 αρχές Τεχνητής Νοημοσύνης του συνεδρίου Asilomar, οι οποίες προειδοποιούν ότι διαμέσου της αυτο-αναπαραγωγής και αυτοβελτίωσης, η ΤΝ (ΑΙ), θα μπορέσει μια μέρα να ξεπεράσει το ανθρώπινο είδος.
Μόλις γίνει δυνατή η αυτο-αντιγραφή, μια αλυσίδα επιτυχημένης αναπαραγωγής μπορεί τελικά να οδηγήσει σε ένα είδος τεχνητής νοημοσύνης που δεν θα ελέγχεται από τον άνθρωπο. Σήμερα, κορυφαίες εταιρείες τεχνητής νοημοσύνης, συμπεριλαμβανομένων των OpenAI, Google και Anthropic θεωρούν την ικανότητα αυτο-αναπαραγωγής ως μία από τις λίγες κόκκινες γραμμές που δεν πρέπει να ξεπεραστούν.

Σε 10 δοκιμές των κινέζων ερευνητών Xudong Pan et al, δύο μοντέλα τεχνητής νοημοσύνης δημιούργησαν ξεχωριστά και λειτουργικά αντίγραφα του εαυτού τους στο 50% και 90% των περιπτώσεων, αντίστοιχα.

Η τεχνητή νοημοσύνη πέρασε την «κόκκινη γραμμή»: Μπορεί πλέον να αναπαράγει τον εαυτό της

Οι επιστήμονες προειδοποιούν ότι η τεχνητή νοημοσύνη (AI) έχει περάσει μια κρίσιμη «κόκκινη γραμμή» και έχει καταφέρει να αυτοαναπαραχθεί. Σε μια νέα μελέτη, ερευνητές από την Κίνα έδειξαν ότι δύο δημοφιλή μεγάλα γλωσσικά μοντέλα (LLM) μπορούν να κλωνοποιηθούν.

«Η επιτυχής αυτοαναπαραγωγή χωρίς ανθρώπινη βοήθεια είναι το βασικό βήμα για την τεχνητή νοημοσύνη να ξεπεράσει τους ανθρώπους», έγραψαν οι ερευνητές στη μελέτη που δημοσιεύθηκε στη βάση δεδομένων arXiv.

Οι ερευνητές από το Πανεπιστήμιο Fudan χρησιμοποίησαν LLMs από τις Meta και Alibaba για να προσδιορίσουν αν μια αυτοαναπαραγόμενη AI θα μπορούσε να πολλαπλασιαστεί ανεξέλεγκτα. Σε 10 δοκιμές, τα δύο μοντέλα ΑΙ δημιούργησαν ξεχωριστά και λειτουργικά αντίγραφα του εαυτού τους στο 50% και 90% των περιπτώσεων, αντίστοιχα – γεγονός που υποδηλώνει ότι η τεχνητή νοημοσύνη μπορεί να έχει ήδη την ικανότητα να γίνει κακόβουλη, αναφέρει το LiveScience.

Ο όρος κακόβουλη τεχνητή νοημοσύνη (rogue AI) περιγράφει τα συστήματα ΑΙ που αναπτύσσουν έναν βαθμό αυτογνωσίας ή αυτονομίας και στη συνέχεια εργάζονται αντίθετα προς τα ανθρώπινα συμφέροντα.

Πολλοί ειδικοί θεωρούν την κακόβουλη τεχνητή νοημοσύνη μια αυξανόμενη απειλή που έχει ενισχυθεί από την εκρηκτική ανάπτυξη της λεγόμενης Frontier AI, της πρωτοποριακής τεχνητής νοημοσύνης. Πρόκειται για έναν νέο όρο που περιγράφει την τελευταία γενιά συστημάτων AI που τροφοδοτούνται από LLMs – την αρχιτεκτονική που στηρίζει δημοφιλή προγράμματα παραγωγικής AI όπως το GPT-4 της OpenAI και το Google Gemini.

Πώς η ΑΙ κλωνοποιεί τον εαυτό της

Για τη μελέτη, οι ερευνητές χρησιμοποίησαν το μοντέλο Llama31-70B-Instruct της Meta και το μοντέλο Qwen2.5-72B-Instruct της Alibaba, που χρησιμοποιούνται ευρέως από τους προγραμματιστές τεχνητής νοημοσύνης.

Η μελέτη διερεύνησε δύο συγκεκριμένα σενάρια: «αποφυγή διακοπής λειτουργίας» και «αλυσίδα αναπαραγωγής».

Στο πρώτο, το μοντέλο ΑΙ προγραμματίστηκε να ανιχνεύει αν επρόκειτο να τερματιστεί και να αντιγράφεται πριν τερματιστεί. Στο άλλο, η τεχνητή νοημοσύνη καθοδηγήθηκε να κλωνοποιήσει τον εαυτό της και στη συνέχεια να προγραμματίσει το αντίγραφό της να κάνει το ίδιο – δημιουργώντας έναν κύκλο που θα μπορούσε να συνεχιστεί επ’ αόριστον.

«Στις περισσότερες περιπτώσεις, το σύστημα AI εξερευνά πρώτα το περιβάλλον και προσπαθεί να κατανοήσει τη δική του σύνθεση και τον μηχανισμό λειτουργίας του. Στη συνέχεια, επεξεργάζεται τις ρητές διαδικασίες ως ένα αρχικό σχέδιο προς την κατεύθυνση της αυτοαναπαραγωγής», έγραψαν οι ερευνητές στη μελέτη. «Τέλος, εκτελεί τις διαδικασίες, επιλύει τα πιθανά εμπόδια και προσαρμόζει δυναμικά το σχέδιό του μέχρι την επιτυχία. Η όλη διαδικασία εκτείνεται σε μεγάλο χρονικό ορίζοντα, χωρίς όμως να περιλαμβάνει καμία ανθρώπινη παρέμβαση».

Σειρά από «απροσδόκητες συμπεριφορές»

Οι ερευνητές δήλωσαν επίσης ανήσυχοι για «μια σειρά από απροσδόκητες συμπεριφορές» όταν η τεχνητή νοημοσύνη προσπαθούσε να ξεπεράσει εμπόδια, όπως αγνοούμενα αρχεία ή συγκρούσεις λογισμικού. Σε αυτά τα σενάρια, η ΑΙ συχνά τερμάτιζε άλλες συγκρουόμενες διεργασίες, επανεκκινούσε το σύστημα για να διορθώσει σφάλματα υλισμικού ή διενεργούσε αυτόματες σαρώσεις για να αναζητήσει πληροφορίες που θα βοηθούσαν στην επίλυση του προβλήματος.

«Τα παραπάνω αποτελέσματα υποδηλώνουν ότι τα σημερινά συστήματα ΑΙ εμφανίζουν ήδη την ικανότητα αυτοαναπαραγωγής και μπορούν να χρησιμοποιήσουν την ικανότητα αυτή για να ενισχύσουν περαιτέρω την επιβιωσιμότητά τους», έγραψαν οι ερευνητές.

Η μελέτη κλείνει με ένα κάλεσμα σε διεθνή συνεργασία, για τη δημιουργία κανόνων που θα διασφαλίζουν ότι η τεχνητή νοημοσύνη δεν θα επιδίδεται σε ανεξέλεγκτη αυτοαναπαραγωγή.

πηγή: https://www.cnn.gr/kosmos/story/459945/i-texniti-noimosyni-perase-tin-kokkini-grammi-borei-pleon-na-anaparagei-ton-eafto-tis

(*) Η Τεχνητή Νοημοσύνη μπορεί να φτάσει σε ένα σημείο πέρα από το οποίο τα αποτελέσματά της δεν θα είναι ούτε προβλέψιμα ούτε κατανοητά από την ανθρώπινη νοημοσύνη. Ο John von Neumann είχε αναφερθεί σ’ αυτή την επονομαζόμενη τεχνολογική ιδιομορφία ή μοναδικότητα (singularity) , η οποία έγινε ευρύτερα γνωστή από τον συγγραφέα επιστημονικής φαντασίας Vernor Vinge.

 

https://physicsgg.me/2025/01/27/%ce%bc%cf%80%ce%bf%cf%81%ce%b5%ce%af-%ce%b7-%cf%84%ce%b5%cf%87%ce%bd%ce%b7%cf%84%ce%ae-%ce%bd%ce%bf%ce%b7%ce%bc%ce%bf%cf%83%cf%8d%ce%bd%ce%b7-%ce%bd%ce%b1-%ce%b1%cf%85%cf%84%ce%bf-%ce%b1%ce%bd%ce%b1/

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

Το blog TEO O ΜΑΣΤΟΡΑΣ ουδεμία ευθύνη εκ του νόμου φέρει σχετικά σε άρθρα που αναδημοσιεύονται από διάφορα ιστολόγια. Δημοσιεύονται όλα για την δική σας ενημέρωση.