Nội dung bài viết
Trump buộc phải thừa nhận Biden đã đúng trong việc kiểm tra độ an toàn của AI.
Tuần này, chính quyền Trump đã quay trở lại và ký các thỏa thuận với Google DeepMind, Microsoft và xAI để tiến hành kiểm tra an toàn của chính phủ đối với các mô hình AI hàng đầu của các công ty trước và sau khi phát hành.
Trước đây, Donald Trump đã ngoan cố gạt bỏ chính sách thời Biden, bác bỏ nhu cầu kiểm tra an toàn tự nguyện vì quy định quá mức sẽ cản trở sự đổi mới không kiềm chế.
Ngay sau khi nhậm chức, ông đã thực hiện thêm một bước nữa là đổi thương hiệu Viện An toàn AI của Hoa Kỳ thành Trung tâm Tiêu chuẩn và Đổi mới AI (CAISI), loại bỏ từ “an toàn” khỏi tên để chỉ trích Joe Biden.
Nhưng sau khi Anthropic thông báo rằng sẽ quá rủi ro khi phát hành mô hình Claude Mythos mới nhất của mình, lo ngại rằng những kẻ xấu có thể khai thác khả năng an ninh mạng tiên tiến của nó, Trump đột nhiên lo ngại về sự an toàn của AI.
Theo Giám đốc Hội đồng Kinh tế Quốc gia Nhà Trắng Kevin Hassett, Trump có thể sớm ban hành lệnh hành pháp bắt buộc chính phủ phải thử nghiệm các hệ thống AI tiên tiến trước khi phát hành, Fortune đưa tin.
Trong thông cáo báo chí của CAISI, trung tâm thừa nhận rằng các thỏa thuận tự nguyện được ký kết bởi Google, Microsoft và xAI “xây dựng n” Chính sách của Biden.
Kỷ niệm các mối quan hệ đối tác mới, Giám đốc CAISI Chris Fall không đề cập đến Mythos nhưng hứa rằng “sự hợp tác mở rộng trong ngành” sẽ giúp CAISI mở rộng quy mô hoạt động của mình “vì lợi ích công cộng vào thời điểm quan trọng”.
Fall cho biết: “Khoa học đo lường độc lập, nghiêm ngặt là điều cần thiết để hiểu được AI tiên phong và những tác động đến an ninh quốc gia của nó”. Đến nay, CAISI cho biết họ đã hoàn thành khoảng 40 đánh giá, bao gồm cả những đánh giá về các mẫu xe tiên phong vẫn chưa được công bố.
Khi tiến hành thử nghiệm, CAISI thường xuyên có quyền truy cập vào các mô hình có “các biện pháp bảo vệ được giảm bớt hoặc loại bỏ”, CAISI cho biết điều này cho phép họ “đánh giá kỹ lưỡng hơn các khả năng và rủi ro liên quan đến an ninh quốc gia”.
CAISI tuyên bố thông qua các đánh giá, chính phủ cũng sẽ hiểu rõ hơn về khả năng của mô hình.
Và để đảm bảo rằng những người đánh giá hiểu được những mối lo ngại hàng đầu về an ninh quốc gia khi chúng xuất hiện trong chính phủ, một “nhóm chuyên gia liên ngành” đã thành lập một lực lượng đặc nhiệm “tập trung vào các mối lo ngại về an ninh quốc gia về AI”, CAISI cho biết.
Một số công ty đã ký thỏa thuận đã tỏ ra tin tưởng vào kế hoạch thử nghiệm của CAISI. Trên LinkedIn, Tom Lue, phó chủ tịch phụ trách tuyến đầu của Google DeepMind er AI toàn cầu, cho biết ông “hài lòng” với kế hoạch thử nghiệm của CAISI.
Trong một blog, Microsoft cho biết "việc kiểm tra các rủi ro về an ninh quốc gia và an toàn công cộng trên quy mô lớn nhất thiết phải là nỗ lực hợp tác với các chính phủ, đồng thời ghi nhận chuyên môn "độc nhất được nắm giữ bởi các tổ chức như CAISI" để tiến hành thử nghiệm đó.
Các nhà phê bình cho rằng CAISI có thể thiếu kinh phí hoặc chuyên môn để đánh giá các mô hình AI hàng đầu.
Và như Trump rõ ràng nghi ngờ, việc tìm kiếm các cam kết tự nguyện từ các công ty AI có thể không tạo ra sự minh bạch hàng ngày mà công chúng cần về các rủi ro AI hàng đầu, các nhà phê bình đã cảnh báo.
Vì sự tin tưởng ngày càng tăng được cho là động lực chính thúc đẩy nỗ lực mới nhất trong việc hợp tác với chính phủ. Trong lúc gấp rút công bố các đối tác của mình, CAISI đã không nêu rõ các tiêu chuẩn thử nghiệm sẽ được sử dụng để đánh giá.
Theo bài đăng trên LinkedIn của Devin Lynch, cựu giám đốc triển khai chiến lược và chính sách mạng tại Văn phòng Nhà Trắng của Giám đốc Mạng Quốc gia: "Đánh giá trước khi triển khai với các phòng thí nghiệm biên giới chính xác là kiểu hợp tác công-tư cần thiết để xây dựng lòng tin, sự an toàn và bảo mật cho AI.
Câu hỏi khó hơn là 'đánh giá' thực sự có ý nghĩa gì ở biên giới. Đánh giá khả năng chỉ tốt bằng các mô hình mối đe dọa đằng sau chúng.
lớp—tiêu chuẩn, kiểm toán, khuôn khổ trách nhiệm pháp lý—vẫn là lớp kém hoàn thiện nhất nhưng cần thiết nhất.
CAISI sẽ cần xác định và xuất bản những gì nó đang thử nghiệm, không chỉ là nó đang thử nghiệm với ai.” Trong một tuyên bố cung cấp cho Ars, Sarah Kreps, giám đốc Viện Chính sách Công nghệ tại Đại học Cornell, nói rằng các công ty AI nên phát triển mối quan hệ chặt chẽ hơn với chính phủ khi AI phát triển.
Tuy nhiên, “định nghĩa về ‘an toàn’ là sai lầm. Bà nói: “Nếu không xác định các tiêu chuẩn, “quy trình này có thể bị chính trị hóa”.
Điều đó có nguy cơ tạo ra một hệ thống trong đó “bất kỳ ai nắm giữ quyền lực sẽ có quyền định hình cách thức hoạt động của quá trình kiểm tra”. Kreps cho biết, cho đến nay, cả chính quyền Biden và Trump đều chưa tìm ra cách tránh điều đó.
Blog của Microsoft cho biết “CAISI, Microsoft và NIST sẽ hợp tác để cải thiện các phương pháp đánh giá đối thủ”, điều này gợi ý rằng kế hoạch là phát triển các tiêu chuẩn này một cách nhanh chóng.
Theo Microsoft, “thử nghiệm hệ thống AI theo cách thăm dò các hành vi bất ngờ, lối đi sai mục đích và các chế độ lỗi” “giống như kiểm tra căng thẳng xem túi khí, dây an toàn và hệ thống phanh có hoạt động hiệu quả và đáng tin cậy trong các tình huống lái xe quan trọng về an toàn hay không”.
Gợi ý thực hành:
1. Theo dõi thông báo từ cơ quan địa phương tại California.
2. Kiểm tra nguồn chính thức trước khi chia sẻ lại thông tin.