Μια ερευνητική ομάδα τεχνητής νοημοσύνης (AI) στο Πολυτεχνικό Πανεπιστήμιο της Βαλένθια στην Ισπανία, διαπίστωσε ότι καθώς τα μεγάλα γλωσσικά μοντέλα γίνονται μεγαλύτερα και πιο εξελιγμένα, τείνουν να είναι λιγότερο πιθανό να παραδεχτούν στους χρήστες ότι δεν γνωρίζουν την απάντηση.
Όσο πιο έξυπνη είναι η Τεχνητή Νοημοσύνη, τόσο λιγότερο πιθανό είναι να παραδεχτεί στους χρήστες ότι δεν γνωρίζει την απάντηση. (Εικονογράφηση Τεχνητής Νοημοσύνης) |
Στη μελέτη, που δημοσιεύτηκε στο περιοδικό Nature , η ομάδα εξέτασε τις τελευταίες εκδόσεις τριών από τα πιο δημοφιλή chatbots τεχνητής νοημοσύνης ως προς την ανταπόκριση, την ακρίβεια και την ικανότητα των χρηστών να εντοπίζουν λανθασμένες απαντήσεις.
Για να ελέγξει την ακρίβεια των τριών πιο δημοφιλών LLM, BLOOM, LLaMA και GPT, η ομάδα έθεσε χιλιάδες ερωτήσεις και συνέκρινε τις απαντήσεις που έλαβε με προηγούμενες εκδόσεις των ίδιων ερωτήσεων. Επίσης, διέφεραν τα θέματα, συμπεριλαμβανομένων των μαθηματικών, των φυσικών επιστημών , των παζλ λέξεων και της γεωγραφίας, καθώς και την ικανότητα δημιουργίας κειμένου ή εκτέλεσης ενεργειών όπως η ταξινόμηση λιστών.
Η μελέτη αποκάλυψε ορισμένες αξιοσημείωτες τάσεις. Η συνολική ακρίβεια των chatbots βελτιωνόταν με κάθε νέα έκδοση, αλλά εξακολουθούσε να μειώνεται όταν αντιμετώπιζαν πιο δύσκολες ερωτήσεις. Παραδόξως, καθώς οι LLM γίνονταν μεγαλύτεροι και πιο εξελιγμένοι, έτειναν να είναι λιγότερο ανοιχτοί σχετικά με την ικανότητά τους να απαντούν σωστά.
Σε παλαιότερες εκδόσεις, οι περισσότεροι LLM έλεγαν ρητά στους χρήστες πότε δεν μπορούσαν να βρουν μια απάντηση ή χρειάζονταν περισσότερες πληροφορίες. Αντίθετα, οι νεότερες εκδόσεις τείνουν να μαντεύουν περισσότερο, με αποτέλεσμα περισσότερες απαντήσεις συνολικά, τόσο σωστές όσο και λανθασμένες. Το πιο ανησυχητικό είναι ότι η μελέτη διαπίστωσε ότι όλοι οι LLM εξακολουθούσαν περιστασιακά να δίνουν λανθασμένες απαντήσεις ακόμη και σε εύκολες ερωτήσεις, γεγονός που υποδηλώνει ότι η αξιοπιστία τους παραμένει ένα πεδίο βελτίωσης.
Αυτά τα ευρήματα αναδεικνύουν ένα παράδοξο στην εξέλιξη της Τεχνητής Νοημοσύνης: ενώ τα μοντέλα γίνονται πιο ισχυρά, ενδέχεται επίσης να γίνουν λιγότερο διαφανή σχετικά με τους περιορισμούς τους.
Αυτό θέτει νέες προκλήσεις στη χρήση και την εμπιστοσύνη των συστημάτων Τεχνητής Νοημοσύνης, απαιτώντας από τους χρήστες να είναι πιο προσεκτικοί και από τους προγραμματιστές να επικεντρωθούν στη βελτίωση όχι μόνο της ακρίβειας αλλά και της «αυτογνωσίας» των μοντέλων.
[διαφήμιση_2]
Πηγή: https://baoquocte.vn/cang-thong-minh-tri-tue-nhan-tao-cang-co-xu-huong-giau-dot-287987.html
Σχόλιο (0)