Ομάδα Ετοιμότητας της OpenAI για την Αντιμετώπιση των “Καταστροφικών Κινδύνων” της Τεχνητής Νοημοσύνης

Uncategorized

Η OpenAI δημιουργεί μια νέα ομάδα για την αντιμετώπιση των “καταστροφικών κινδύνων” που συνδέονται με την τεχνητή νοημοσύνη (AI). Σύμφωνα με μια ενημέρωση την Πέμπτη, η OpenAI αναφέρει ότι η ομάδα ετοιμότητας θα “παρακολουθεί, αξιολογεί, προβλέπει και προστατεύει” από πιθανά μεγάλα προβλήματα που προκαλούνται από την AI, συμπεριλαμβανομένων των πυρηνικών απειλών1.

Η ομάδα θα εργάζεται επίσης για την αντιμετώπιση “χημικών, βιολογικών και ακτινοβολητικών απειλών”, καθώς και της “αυτόνομης αναπαραγωγής”, ή της πράξης μιας AI να αναπαράγει τον εαυτό της1. Κάποιοι άλλοι κίνδυνοι που θα αντιμετωπίσει η ομάδα ετοιμότητας περιλαμβάνουν την ικανότητα της AI να εξαπατά τους ανθρώπους, καθώς και τις απειλές ασφάλειας των πληροφοριών1.

Η OpenAI αναγνωρίζει τα πιθανά οφέλη των μοντέλων AI που υπερβαίνουν τις υπάρχουσες δυνατότητες, αλλά αναγνωρίζει επίσης τους αυξανόμενους κινδύνους που συνδέονται με αυτά2. Η ομάδα Ετοιμότητας, υπό την ηγεσία του Aleksander Madry, θα συνδέσει την αξιολόγηση των δυνατοτήτων, τις αξιολογήσεις και τις εσωτερικές δοκιμές για τα μοντέλα AI2.

Η OpenAI αναπτύσσει μια Πολιτική Ανάπτυξης Βασισμένη στον Κίνδυνο (RDP) για να διασφαλίσει την αυστηρή αξιολόγηση, παρακολούθηση και διακυβέρνηση των μοντέλων2. Η OpenAI εργάζεται ενεργά για την ελαχιστοποίηση των καταστροφικών κινδύνων που συνδέονται με τα συστήματα AI υψηλής ικανότητας2.

Μέσω της ομάδας Ετοιμότητας και της Πρόκλησης Ετοιμότητας AI, η OpenAI στοχεύει να προσελκύσει εξαιρετικά ταλέντα και να συγκεντρώσει νέες ιδέες για την αντιμετώπιση των ανησυχιών και την πρόληψη της κατάχρησης2. Η επικέντρωση στην ασφάλεια, την αξιολόγηση, την παρακολούθηση και τη διακυβέρνηση αντανακλά την αφοσίωση της OpenAI στη δημιουργία ασφαλών και αξιόπιστων συστημάτων AI2.

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *