A realistic and high-definition image of a metaphorical depiction showcasing the urgency for AI safety risks. The concept is represented by a racing track with hazard signs marked 'AI Safety Risks'. In the distance, a silhouette of a runner symbolizing the UK, is seen lagging behind other runners symbolizing different nations. The front runners carry flags labelled with AI advancements, suggesting the risk of falling behind in global AI race. Please note that no real people or government representatives are depicted in this image.

UK Government Urged to Prioritize AI Safety Risks and Avoid Falling Behind

Uncategorized xEN

Το βρετανικό κράτος υιοθετεί μια “περιορισμένη” άποψη για την ασφάλεια της τεχνητής νοημοσύνης και κινδυνεύει να υστερήσει στην “χρυσή” πτήση της τεχνητής νοημοσύνης, σύμφωνα με έκθεση που δημοσιεύθηκε σήμερα.

Η έκθεση, που δημοσιεύθηκε από την κοινοβουλευτική Επιτροπή Επικοινωνιών και Ψηφιακής Επικοινωνίας της Βουλής των Λόρδων, ακολούθησε μια πολυμηνή προσπάθεια συλλογής στοιχείων με την άποψη ενός ευρέος φάσματος ενδιαφερομένων, συμπεριλαμβανομένων μεγάλων τεχνολογικών εταιρειών, ακαδημαϊκών, επιχειρηματιών κεφαλαίου επιχειρηματικού ρίσκου, μέσων ενημέρωσης και κυβέρνησης.

Μεταξύ των βασικών ευρημάτων της έκθεσης ήταν ότι η κυβέρνηση πρέπει να επανευθυνοποιήσει τις προσπάθειές της στους πιο εγγύς κινδύνους για την ασφάλεια και την κοινωνία που δημιουργούν οι μεγάλοι μοντέλα γλωσσικής νοημοσύνης, όπως η παραβίαση των πνευματικών δικαιωμάτων και η διάδοση παραπλανητικών πληροφοριών, αντί να ανησυχεί υπερβολικά για αποκαλυπτικά σενάρια και υποθετικούς υπαρξιακούς κινδύνους.

“Η γρήγορη ανάπτυξη των μεγάλων μοντέλων γλωσσικής νοημοσύνης αναμένεται να έχει έντονο αντίκτυπο στην κοινωνία, όπως η εισαγωγή του διαδικτύου – αυτό καθιστά ζωτική σημασία για την Κυβέρνηση να επιλέξει τη σωστή προσέγγιση και να μην χάσει ευκαιρίες, ιδιαίτερα εάν αυτό συμβαίνει λόγω προφυλάξεων για μακρυνούς και απίθανους κινδύνους”, δήλωσε η πρόεδρος της Επιτροπής Επικοινωνιών και Ψηφιακής Επικοινωνίας των Λόρδων, Μπαρόνης Στόγουελ, σε ανακοίνωσή της. “Πρέπει να αντιμετωπίσουμε τους κινδύνους για να μπορέσουμε να εκμεταλλευτούμε τις ευκαιρίες – όμως πρέπει να είμαστε αναλογικοί και πρακτικοί. Πρέπει να αποφύγουμε να χάσουμε την ευκαιρία μιας πιθανής χρυσής πτήσης της τεχνητής νοημοσύνης”.

Τα ευρήματα έρχονται όταν ολόκληρος ο κόσμος αντιμετωπίζει μια ανερχόμενη εισβολή της τεχνητής νοημοσύνης που φαίνεται να αναδιαμορφώνει τον κλάδο και την κοινωνία, με το ChatGPT της OpenAI ως το πρωτοποριακό παράδειγμα μιας κίνησης που έριξε τα LLMs στην προσοχή της κοινής γνώμης την τελευταία χρονιά. Αυτή η υπερβολή έχει δημιουργήσει ενθουσιασμό και φόβο σε ίση μετρική, και έχει προκαλέσει διάφορους τύπους συζητήσεων γύρω από την διοίκηση της τεχνητής νοημοσύνης – ο πρόεδρος Μπάιντεν πρόσφατα εξέδωσε μια διαταγή προς το σκοπό θέσπισης προτύπων ασφάλειας και ασφάλειας για την τεχνητή νοημοσύνη, ενώ το “νωμένο Βασίλειο προσπαθεί να τοποθετηθεί στην πρώτη γραμμή της διακυβέρνησης της τεχνητής νοημοσύνης μέσω πρωτοβουλιών όπως το AI Safety Summit, που συγκέντρωσε ορισμένους από τους πολιτικούς και επιχειρηματικούς ηγέτες του κόσμου στο ίδιο δωμάτιο στο Bletchley Park τον περασμένο Νοέμβριο.

Παράλληλα, αναδύεται μια διαίρεση όσον αφορά τον βαθμό που θα πρέπει να ρυθμίζουμε αυτήν τη νέα τεχνολογία.

Ο επιστημονικός σύμβουλος της Meta, Yann LeCun, πρόσφατα προσχώρησε σε δεκάδες υπογράφοντες ενός ανοιχτού γράμματος που καλεί σε μεγαλύτερη ανοικτότητα στην ανάπτυξη της τεχνητής νοημοσύνης, μια προσπάθεια που σχεδιάστηκε για να αντισταθμίσει μια αυξανόμενη προσπάθεια τεχνολογικών εταιρειών όπως η OpenAI και το Google για να διασφαλίσουν την “κατακτήση” της τεχνητής νοημοσύνης μέσω της επιρροής στη ρυθμιστική ανάπτυξη της.

“Η ιστορία μας δείχνει ότι η βιασύνη για εσφαλμένου είδους ρύθμιση μπορεί να οδηγήσει σε συγκεντρώσεις εξουσίας που βλάπτουν τον ανταγωνισμό και την καινοτομία”, ανέφερε το γράμμα. “Οι ανοιχτοί μοντέλα μπορούν να πληροφορήσουν μια ανοικτή συζήτηση και να βελτιώσουν τη διαμόρφωση της πολιτικής. Εάν οι στόχοι μας είναι η ασφάλεια, η ασφάλεια και η αποδοτικότητα, τότε η ανοιχτότητα και η διαφάνεια είναι απαραίτητα συστατικά για να φτάσουμε εκεί”.

Και ακριβώς αυτή η ένταση αποτελεί έναν πυροδοτημένο παράγοντα που βρίσκεται στην καρδιά της έκθεσης “Μεγάλα μοντέλα γλωσσικής νοημοσύνης και γεννητική τεχνητή νοημοσύνη” της Βουλής των Λόρδων, η οποία καλεί την κυβέρνηση να καθιερώσει τον ανταγωνισμό στην αγορά ως ένα ” έμπρακτο πολιτικό στόχος “για να προστατευτεί από τον εγγύτερο ανταγωνισμό οι υπάρχοντες πρωτοπόροι όπως η OpenAI και το Google.

Πράγματι, το ζήτημα του “κλειστού” έναντι του “ανοιχτού” αναφέρεται σε αρκετές σελίδες στην έκθεση, με συμπέρασμα ότι οι “δυναμικές ανταγωνισμού” θα είναι καθοριστικές όχι μόνο για το ποιος θα ηγηθεί της αγοράς AI / LLMs, αλλά και για το ποιο είδος ρυθμιστικής εποπτείας θα λειτουργήσει τελικά. ⟨hr⟩ Η έκθεση σημειώνει: “Στην καρδιά του ζητήματος βρίσκεται ένας ανταγωνισμός μεταξύ των φορέων που λειτουργούν σε ‘κλειστά’ και άλλων που καθιστούν τεχνολογία προσβάσιμη με περισσότερο διαχειρίσιμο τρόπο”.

Στα ευρήματά της, η επιτροπή είπε ότι εξέτασε κατά πόσο η κυβέρνηση θα πρέπει να υιοθετήσει μια ξεκάθαρη θέση για αυτό το θέμα, στο πλαίσιο της προτίμησης μιας ανοιχτής ή κλειστής προσέγγισης, καταλήγοντας ότι “μια ολοκληρωμένη και επαναληπτική προσέγγιση θα είναι ουσιαστική”. Ωστόσο, σύμφωνα με την έκθεση, τα στοιχεία που συγκεντρώθηκαν χρωματίστηκαν κάπως από τα αντίστοιχα συμφέροντα των ενδιαφερομένων φορέων.

Για παράδειγμα, ενώ η Microsoft και το Google ανέφεραν ότι γενικά υποστηρίζουν τις τεχνολογίες “ανοιχτής πρόσβασης”, πιστεύουν ότι οι ασφαλοκίνητοι κίνδυνοι που σχετίζονται με τα ανοιχτά διαθέσιμα LLMs είναι υπερβολικά σημαντικοί και απαιτούν περισσότερους φράχτες. Στα γραπτά στοιχεία της Microsoft, για παράδειγμα, η εταιρεία είπε ότι “όχι όλοι οι παράγοντες έχουν σκοπό ή εξοπλισμό να αντιμετωπίσουν τις προκλήσεις που παρουσιάζουν τα εξαιρετικά ικανά [μεγάλα γλωσσικά] μοντέλα “. Η εταιρεία σημείωσε: ” Ορισμένοι φορείς θα χρησιμοποιήσουν την τεχνητή νοημοσύνη ως όπλο, όχι ως εργαλείο, ενώ άλλοι θα υποτιμήσουν τους κινδύνους ασφάλειας που απέχουν. Απαιτείται σημαντικό έργο για να προστατεύσουμε τη δημοκρατία και τα θεμελιώδη δικαιώματα, να παρέχουμε ευρεία πρόσβαση στις δεξιότητες ικανοτήτων της τεχνητής νοημοσύνης που θα προωθήσουν τη συμπερίληψη της ανεργίας και να χρησιμοποιήσουμε τη δύναμη της αποδοτικότητας της τεχνητής νοημοσύνης για να προαγάγουμε τις ανάγκες βιωσιμότητας του πλανήτη. Οι ρυθμιστικά πλαίσια θα πρέπει να προστατέψουν από την εσκεμμένη κατάχρηση ικανών μοντέλων για την πρόκληση βλαβών, για παράδειγμα προσπαθώντας να αναγνωρίσει και να εκμεταλλευτεί κυβερνοευπαθείς αδυναμίες κλίμακας ή να αναπτύξει βιοποικιλογικά υλικά, καθώς και τους κινδύνους από ατύχημα, για παράδειγμα εάν χρησιμοποιηθεί η τεχνητή νοημοσύνη για τη διαχείριση κρίσιμων υποδομών μεγάλης κλίμακας χωρίς τα κατάλληλα φράχτες.

Από την άλλη πλευρά, τα ανοιχτά LLMs είναι πιο προσβάσιμα και λειτουργούν ως ένας “ευερέθιστος κύκλος” που επιτρέπει σε περισσότερους ανθρώπους να πειραματιστούν και να επιθεωρήσουν το τι συμβαίνει υπό το καπό. Η Ιρήνε Σολαϊμάν, παγκόσμια διευθύντρια πολιτικής στην πλατφόρμα της τεχνητής νοημοσύνης Hugging Face, δήλωσε κατά την διάρκεια της απόδειξης των στοιχείων της ότι η ανοίγματα πρόσβασης σε πράγματα όπως τα δεδομένα εκπαίδευσης και η δημοσίευση τεχνικών άρθρων είναι ένας ζωτικός μέρος της διαδικασίας αξιολόγησης κινδύνου.

Αυτό που είναι πραγματικά σημαντικό στην ανοιχτότητα είναι η διαφάνεια. Έχουμε εργαστεί σκληρά στο Hugging Face για τα επίπεδα διαφάνειας […] για να επιτρέψουμε σε ερευνητές, καταναλωτές και ρυθμοδοτικούς φορείς με έναν πολύ καταναλώσιμο τρόπο να κατανοήσουν τα διάφορα επιμέρους συστατικά που κυκλοφορούν με αυτό το σύστημα. Ένα από τα δύσκολα πράγματα για ταυτοποίηση είναι ότι οι διαδικασίες σπάνια δημοσιεύονται, έτσι οι εφαρμοστές έχουν σχεδόν πλήρη έλεγχο επί της διαδικασίας κυκλοφορίας κατά μήκος αυτού του βαθμού προτιμήσεων και δεν έχουμε εικόνα από την προθετική κατάσταση της απασχόλησης.

Ο Ίαν Χόγκαρθ, πρόεδρος του Ινστιτούτου Ασφάλειας της Τεχνητής Νοημοσύνης της κυβέρνησης του Ηνωμένου Βασιλείου, παρατήρησε επίσης ότι βρισκόμαστε σε μια θέση σήμερα όπου ο ορίζοντας των LLM και της δημιουργικής τεχνητής νοημοσύνης ορίζεται από ιδιωτικές εταιρείες που

Συχνές Ερωτήσεις:

1. Ποια είναι τα βασικά ευρήματα της έκθεσης;
– Οι βασικές ανησυχίες της έκθεσης περιλαμβάνουν την ανάγκη για επανευθυνοποίηση της κυβέρνησης σε θέματα ασφάλειας και κοινωνικής ευθύνης σχετικά με την τεχνητή νοημοσύνη, και την ανάγκη για προσέγγιση που να είναι αναλογική και πρακτική αντί να επικεντρώνεται σε εξωπραγματικούς κινδύνους.

2. Ποιοι συμμετέχουν στη συλλογή των δεδομένων για την έκθεση;
– Η έκθεση συλλέγει δεδομένα από μεγάλες τεχνολογικές εταιρείες, ακαδημαϊκούς, επιχειρηματίες κεφαλαίου επιχειρηματικού ρίσκου, μέσα ενημέρωσης και κυβερνητικούς φορείς.

3. Ποια είναι η θέση της κυβέρνησης για την τεχνητή νοημοσύνη;
– Η έκθεση καλεί την κυβέρνηση να επανευθυνοποιηθεί στους κινδύνους και τις προκλήσεις σχετικά με την τεχνητή νοημοσύνη, αντί να εστιάζει υπερβολικά σε εξωπραγματικούς κινδύνους.

4. Ποιες είναι οι διαφορές μεταξύ της “ανοικτής” και της “κλειστής” προσέγγισης;
– Η “ανοικτή” προσέγγιση αναφέρεται στη διαθεσιμότητα και την πρόσβαση σε τεχνολογίες και δεδομένα, ενώ η “κλειστή” προσέγγιση αναφέρεται στην περιορισμένη πρόσβαση και τον περιορισμένο χαρακτήρα των τεχνολογιών και δεδομένων. Η έκθεση αναφέρει ότι ο ανταγωνισμός μεταξύ αυτών των προσεγγίσεων είναι καθοριστικός για το μέλλον της τεχνητής νοημοσύνης.

Σχετικοί Σύνδεσμοι:
– Περισσότερες πληροφορίες για την έκθεση: Εκθεση_ασφαλείας_τεχνητής_νοημοσύνης
– Τελευταία ειδήσεις για την τεχνητή νοημοσύνη: Τελευταίες_ειδήσεις_τεχνητής_νοημοσύνης