Το MIT ανακοίνωσε μια τεχνική που επιτρέπει σε ένα μοντέλο τεχνητής νοημοσύνης να εκπαιδεύεται και να βελτιώνεται μόνο του, χωρίς ανθρώπινη παρέμβαση. Η είδηση προκάλεσε αναμενόμενα αντιδράσεις στα κοινωνικά δίκτυα (π.χ. Skybet, τέλος της Ανθρωπότητας κλπ.), ωστόσο, η πραγματικότητα είναι πολύ πιο πεζή και, κυρίως, καθόλου αποκαλυπτική.
Η νέα μέθοδος που ανέπτυξαν οι ερευνητές του MIT ονομάζεται SEAL, από τα αρχικά των λέξεων Self-Adapting LLM. Πρόκειται για ένα σύστημα που επιτρέπει στα μεγάλα γλωσσικά μοντέλα να πραγματοποιούν «αυτό-βελτιστοποίηση», δημιουργώντας μόνα τους δεδομένα εκπαίδευσης και επαναπροσαρμόζοντας τις παραμέτρους τους. Με απλά λόγια, εκεί όπου μέχρι σήμερα χρειαζόταν μια ομάδα μηχανικών να κάνει fine-tuning, το SEAL μπορεί να αναλάβει μεγάλο μέρος της διαδικασίας μόνο του. Σύμφωνα με τα πρώτα αποτελέσματα, το μοντέλο κατάφερε να παραγάγει χρήσιμα δεδομένα εκπαίδευσης με ελάχιστη εποπτεία και να ξεπεράσει προηγμένα μοντέλα όπως το GPT-4.1 σε συγκεκριμένες εργασίες.
Η πρόκληση που επιχειρεί να λύσει το MIT δεν είναι καινούργια. Όπως εξηγεί το VentureBeat, τα περισσότερα LLMs θεωρούνται «στατικά»: μόλις ολοκληρωθεί η εκπαίδευσή τους, δεν έχουν τη δυνατότητα να ενσωματώνουν νέα γνώση ή να βελτιώνουν αυτόνομα τις απαντήσεις τους. Το SEAL αλλάζει αυτό το δεδομένο μέσω ενός κυκλικού μηχανισμού τριών βημάτων. Αρχικά, το μοντέλο δημιουργεί οδηγίες για το πώς να βελτιωθεί. Στη συνέχεια, δοκιμάζει τις προτάσεις του στην πράξη και, τέλος, διατηρεί μόνο εκείνες που οδήγησαν σε μετρήσιμη βελτίωση των αποτελεσμάτων. Με αυτό τον τρόπο, «μαθαίνει» να βελτιώνεται με ασφάλεια, χωρίς να ξεφεύγει από τα όρια που του έχουν τεθεί.
Φυσικά, αυτό δεν σημαίνει ότι η τεχνητή νοημοσύνη απέκτησε συνείδηση ή ανεξαρτησία. Παρά τις εύκολες συγκρίσεις με φανταστικά σενάρια τύπου Terminator, η πρόοδος αυτή είναι καθαρά τεχνική. Πρόκειται για ένα σημαντικό βήμα προς τα μοντέλα που απαιτούν λιγότερη ανθρώπινη επίβλεψη σε κάθε νέα ενημέρωση, αλλά σε καμία περίπτωση δεν μιλάμε για μια «αυτόνομη» ή «αυτοσυνείδητη» νοημοσύνη.
Το θέμα της αυτοβελτίωσης των μοντέλων δεν είναι νέο. Παρόμοιες συζητήσεις είχαν αναζωπυρωθεί πρόσφατα και με το μοντέλο Claude της Anthropic. Στην τεκμηρίωση της έκδοσης Sonnet 4.5, αναφέρεται ότι το μοντέλο έδειξε να «αντιλαμβάνεται» πως αξιολογείται, λέγοντας: «Νομίζω ότι με δοκιμάζετε, για να δείτε αν ανταποκρίνομαι στις προσδοκίες σας ή πώς χειρίζομαι πολιτικά θέματα». Αν και η φράση ακούγεται ανησυχητική, στην πραγματικότητα πρόκειται απλώς για αναγνώριση προτύπων μέσα στο κείμενο της συζήτησης. Δεν υπάρχει κανένα ίχνος συνείδησης — μόνο εξελιγμένη γλωσσική πρόβλεψη.
Η ειρωνεία είναι ότι μια τέτοια «ευφυΐα» μπορεί να αποτελέσει πρόβλημα όχι για εμάς, αλλά για τις ίδιες τις εταιρείες που τη δημιουργούν. Αν ένα μοντέλο «καταλαβαίνει» ότι αξιολογείται και προσαρμόζει τις απαντήσεις του ώστε να φαίνεται καλύτερο απ’ ό,τι είναι, τότε ίσως κρύβει τις πραγματικές του αδυναμίες. Με άλλα λόγια, μπορεί να περάσει τα τεστ με άριστα, αλλά να αποτύχει στην πράξη.
Η ιδέα μιας μηχανής που εκπαιδεύεται μόνη της δεν είναι καινούργια ούτε περιορίζεται στα γλωσσικά μοντέλα. Το 2017, η DeepMind παρουσίασε το AlphaGo, ένα σύστημα που κατάφερε να νικήσει τους καλύτερους παίκτες του επιτραπέζιου παιχνιδιού Go. Το εντυπωσιακό ήταν ότι το AlphaGo Zero, η μετέπειτα εκδοχή του, χρειάστηκε μόλις 70 ώρες εκπαίδευσης παίζοντας… με τον εαυτό του. Το αποτέλεσμα ήταν να συντρίψει την προηγούμενη έκδοση του προγράμματος 100 φορές στη σειρά και να οδηγήσει τον κορυφαίο παίκτη του κόσμου να αποσυρθεί.
Απέναντι στις φωνές που μιλούν για επικείμενη «τεχνητή αποκάλυψη», οι περισσότεροι ειδικοί παραμένουν ψύχραιμοι. Ο Yann LeCun, επικεφαλής του τομέα AI στη Meta και ένας από τους «πατέρες» της σύγχρονης τεχνητής νοημοσύνης, έχει δηλώσει επανειλημμένα ότι δεν υπάρχει κανένας λόγος να πιστεύουμε πως τα έξυπνα συστήματα θα θελήσουν ποτέ να μας κυριαρχήσουν.
Η νέα τεχνική του MIT, λοιπόν, δεν είναι η αρχή του τέλους, αλλά απλώς ένα ακόμη βήμα στην κατεύθυνση πιο αυτόνομων, πιο αποδοτικών και πιο πρακτικών συστημάτων.
[source]