11.8 C
Cyprus
Τετάρτη, 6 Μαΐου, 2026
More

    Η αμερικανική κυβέρνηση θα αξιολογεί νέα μοντέλα AI πριν από τη διάθεσή τους

    Σε κρατική αξιολόγηση πριν από τη δημόσια διάθεσή τους θα μπορούν να τίθενται νέα μοντέλα AI της Google DeepMind, της Microsoft και της xAI, μετά τις συμφωνίες που ανακοίνωσε το Center for AI Standards and Innovation του αμερικανικού υπουργείου Εμπορίου. Οι συνεργασίες προβλέπουν pre-deployment αξιολογήσεις και στοχευμένη έρευνα, με στόχο την καλύτερη αποτίμηση των δυνατοτήτων των frontier AI συστημάτων και την ενίσχυση της ασφάλειας γύρω από την τεχνητή νοημοσύνη.

    Η CAISI, η οποία υπάγεται στο National Institute of Standards and Technology, αναφέρει ότι οι νέες συμφωνίες επεκτείνουν προηγούμενες συνεργασίες και ευθυγραμμίζονται με τις οδηγίες του υπουργού Εμπορίου Howard Lutnick και το America’s AI Action Plan. Το κέντρο έχει οριστεί ως βασικό σημείο επαφής της βιομηχανίας με την αμερικανική κυβέρνηση για δοκιμές, συνεργατική έρευνα και ανάπτυξη βέλτιστων πρακτικών που αφορούν εμπορικά συστήματα AI.

    Κρατική αξιολόγηση πριν από την κυκλοφορία

    Οι συμφωνίες με τους φορείς ανάπτυξης frontier AI επιτρέπουν στην αμερικανική κυβέρνηση να αξιολογεί μοντέλα πριν αυτά γίνουν διαθέσιμα στο κοινό, καθώς και να πραγματοποιεί ελέγχους μετά την ανάπτυξή τους και άλλες μορφές έρευνας. Μέχρι σήμερα, η CAISI αναφέρει ότι έχει ολοκληρώσει περισσότερες από 40 τέτοιες αξιολογήσεις, συμπεριλαμβανομένων δοκιμών σε μοντέλα τελευταίας τεχνολογίας που παραμένουν ακυκλοφόρητα.

    Η ανακοίνωση τοποθετεί τις νέες συμφωνίες στο πλαίσιο της εθνικής ασφάλειας και της ανάγκης για πιο σαφή εικόνα των δυνατοτήτων των προηγμένων συστημάτων AI. Η CAISI θα συνεργαστεί με την Google DeepMind, τη Microsoft και την xAI για την αξιολόγηση frontier AI δυνατοτήτων, ενώ η ίδια προσέγγιση καλύπτει και στοχευμένη έρευνα που σχετίζεται με την ασφάλεια των συστημάτων. Οι συμφωνίες προβλέπουν επίσης ανταλλαγή πληροφοριών, εθελοντικές βελτιώσεις προϊόντων και καλύτερη κατανόηση, από την πλευρά της κυβέρνησης, της κατάστασης του διεθνούς ανταγωνισμού στο AI.

    Δοκιμές σε περιβάλλοντα διαβαθμισμένης πρόσβασης

    Για την αξιολόγηση δυνατοτήτων και κινδύνων που σχετίζονται με την εθνική ασφάλεια, οι εταιρείες παρέχουν συχνά στην CAISI μοντέλα στα οποία έχουν μειωθεί ή αφαιρεθεί ορισμένα safeguards, όπως αναφέρει η ανακοίνωση. Η διαδικασία αυτή επιτρέπει στους αξιολογητές να εξετάζουν πτυχές των συστημάτων που μπορεί να μην είναι ορατές στις τελικές εμπορικές εκδόσεις, χωρίς η CAISI να παρουσιάζει τη διαδικασία ως υποχρεωτικό καθεστώς ελέγχου για το σύνολο της αγοράς.

    Στις αξιολογήσεις μπορούν να συμμετέχουν αξιολογητές από διαφορετικά τμήματα της αμερικανικής κυβέρνησης, ενώ η ανατροφοδότηση παρέχεται τακτικά μέσω της TRAINS Taskforce. Η ομάδα αυτή, την οποία συγκαλεί η CAISI, αποτελείται από διακυβερνητικούς ειδικούς με αντικείμενο ζητήματα εθνικής ασφάλειας στο AI. Οι συμφωνίες υποστηρίζουν δοκιμές σε διαβαθμισμένα περιβάλλοντα και έχουν σχεδιαστεί με ευελιξία, ώστε να μπορούν να ανταποκρίνονται στις συνεχείς εξελίξεις της τεχνητής νοημοσύνης.

    Το πλαίσιο των προηγούμενων συνεργασιών

    Η CAISI είχε ξεκινήσει αξιολογήσεις μοντέλων της OpenAI και της Anthropic το 2024. Οι δύο εταιρείες έχουν επαναδιαπραγματευθεί τις υπάρχουσες συνεργασίες τους με το κέντρο, ώστε να ευθυγραμμιστούν με τις προτεραιότητες του America’s AI Action Plan. Η προσθήκη της Google DeepMind, της Microsoft και της xAI διευρύνει το εύρος των εταιρειών που συμμετέχουν στις διαδικασίες αξιολόγησης από την αμερικανική κυβέρνηση.

    Ο διευθυντής της CAISI, Chris Fall, δήλωσε ότι η ανεξάρτητη και αυστηρή επιστήμη των μετρήσεων είναι ουσιώδης για την κατανόηση του frontier AI και των επιπτώσεών του στην εθνική ασφάλεια. Ο ίδιος ανέφερε ότι οι διευρυμένες συνεργασίες με τη βιομηχανία βοηθούν το κέντρο να κλιμακώσει το έργο του προς το δημόσιο συμφέρον, σε μια περίοδο κατά την οποία η αμερικανική κυβέρνηση δίνει μεγαλύτερο βάρος στη δοκιμή και την κατανόηση των προηγμένων AI συστημάτων.

    Πιθανή περαιτέρω διεύρυνση των ελέγχων

    Η εξέλιξη έρχεται ενώ ο Λευκός Οίκος εξετάζει ενδεχόμενη περαιτέρω διεύρυνση των αξιολογήσεων. Ρεπορτάζ των New York Times ανέφερε ότι ο Donald Trump εξετάζει εκτελεστικό διάταγμα που θα έφερνε μαζί στελέχη τεχνολογικών εταιρειών και κυβερνητικούς αξιωματούχους για την εποπτεία νέων μοντέλων AI.

    Η επίσημη ανακοίνωση της CAISI δεν συνδέει τις νέες συμφωνίες με τέτοιο διάταγμα, αλλά τις τοποθετεί στην υφιστάμενη κατεύθυνση του υπουργείου Εμπορίου και του America’s AI Action Plan. Στο κέντρο της πρωτοβουλίας βρίσκεται η δημιουργία μηχανισμών αξιολόγησης που επιτρέπουν στην κυβέρνηση να εξετάζει προηγμένα μοντέλα AI πριν και μετά τη διάθεσή τους, με έμφαση στις δυνατότητες, στους κινδύνους και στις επιπτώσεις που σχετίζονται με την εθνική ασφάλεια.

    Διαβάστε επίσης: Android: Πώς να βελτιώσετε τη διάρκεια ζωής της μπαταρίας και να κάνετε το κινητό σας πιο γρήγορο

    Related Articles

    ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

    εισάγετε το σχόλιό σας!
    παρακαλώ εισάγετε το όνομά σας εδώ

    Αυτός ο ιστότοπος χρησιμοποιεί το Akismet για να μειώσει τα ανεπιθύμητα σχόλια. Μάθετε πώς υφίστανται επεξεργασία τα δεδομένα των σχολίων σας.



    Latest Articles



    Διαβάστε το περιοδικό «ΚΙΝΗΤΗ CY»