Nội dung bài viết
New York, Kể từ khi thử nghiệm va chạm xe độc lập bắt đầu vào giữa những năm 1990, các nhà sản xuất ô tô đã được khuyến khích thực hiện những thay đổi về an toàn đã cứu sống hàng nghìn người mỗi năm. Giờ đây, một nhóm mới đang hy vọng có thể áp dụng cách tiếp cận tương tự với trí tuệ nhân tạo.
LIÊN QUAN: Google bổ sung các công cụ sức khỏe tâm thần cho chatbot Gemini sau vụ kiện Cơ quan giám sát truyền thông phi lợi nhuận Common Sense Media đang ra mắt Viện An toàn AI cho Thanh niên, một phòng thí nghiệm nghiên cứu và thử nghiệm độc lập, được ngành hỗ trợ để nghiên cứu những rủi ro mà các công cụ AI có thể gây ra cho trẻ em và thanh thiếu niên.
Nó sẽ nhằm mục đích cung cấp thông tin cho phụ huynh và gia đình về các công cụ AI khác nhau và đặt ra các tiêu chuẩn an toàn cho các công ty công nghệ.
Các công ty AI đang bị cuốn vào cuộc đua xây dựng những mô hình mạnh mẽ nhất, được sử dụng rộng rãi nhất và điều đó đôi khi có nghĩa là tốc độ được ưu tiên hơn so với thử nghiệm an toàn.
Bởi vì các công cụ AI là những hệ thống phức tạp với nhiều mục đích sử dụng khác nhau nên việc xếp hạng độ an toàn của chúng có thể sẽ khó hơn nhiều so với việc đánh giá phản ứng của một chiếc ô tô trong một vụ va chạm.
Nhưng Common Sense Media và hội đồng lãnh đạo AI, giáo dục và y tế hàng đầu mà họ tuyển dụng để giám sát Viện An toàn AI cho Thanh niên tin rằng việc chỉ dựa vào các công ty AI để t... mọi người.
Các tổ chức an toàn AI bên thứ ba hiện tại chủ yếu tập trung vào các rủi ro hiện hữu và ở cấp độ xã hội, chẳng hạn như mất việc làm hoặc thậm chí là sự tuyệt chủng của con người, thay vì xếp hạng an toàn thân thiện với người tiêu dùng nhằm mục đích sử dụng hàng ngày.
Mục tiêu là để công chúng chú ý và các tiêu chuẩn của bên thứ ba khơi dậy điều mà Giám đốc điều hành Common Sense Media, James Steyer gọi là “cuộc đua lên đỉnh cao” để các công ty công nghệ thực hiện các biện pháp khắc phục an toàn nhằm cải thiện vị thế của họ.
John Giannandrea, cựu giám đốc chiến lược AI của Apple, người đã tham gia ban cố vấn của viện, nói với CNN rằng các công ty AI hàng đầu đầu tư vào nghiên cứu an toàn để “làm cho mô hình của họ tốt nhất có thể, nhưng không có thước đo độc lập nào về điều đó”.
“Chúng tôi thực sự không biết mô hình nào phù hợp với trẻ em ở một độ tuổi nhất định hơn những mô hình khác và tôi nghĩ cách thực sự duy nhất để làm điều đó là có một bộ tiêu chuẩn chung độc lập.” Việc ra mắt diễn ra trong bối cảnh nhiều gia đình đã kiện các công ty AI cáo buộc rằng chatbot đã khuyến khích con cái họ tự tử.
Một cuộc điều tra gần đây của CNN cho thấy các chatbot AI đã tư vấn cho các tài khoản thử nghiệm dành cho thanh thiếu niên về cách thực hiện hành vi bạo lực. Grok, chatbot của xAI, đã bị chỉ trích vào đầu năm nay vì chia sẻ những hình ảnh khiêu dâm về phụ nữ và trẻ em để...
o Lời nhắc “cởi quần áo kỹ thuật số” của người dùng. Và việc áp dụng AI ngày càng tăng trong các lớp học đã đặt ra câu hỏi về việc liệu công nghệ này có thể cản trở việc học hay không.
“Tôi nghĩ nhiều phụ huynh, các nhà giáo dục và người dân cảm thấy chúng ta đang ở một thời điểm thảm khốc khi AI đang định hình lại cuộc sống của trẻ em, gia đình và trường học và nói thẳng ra là của toàn xã hội,” Steyer nói riêng với CNN trước khi công bố nhóm vào thứ Ba.
Viện sẽ bắt đầu với ngân sách hàng năm 20 triệu USD, được hỗ trợ bởi OpenAI Foundation, Anthropic và Pinterest, cũng như Walton Family Foundation, Giám đốc điều hành Goldman Sachs Gene Sykes và các nhà từ thiện khác.
Theo Common Sense, các nhà tài trợ sẽ không có tiếng nói trong hoạt động hoặc nghiên cứu của nhóm.
Ban cố vấn của nhóm cũng sẽ bao gồm Mehran Sahami, chủ tịch khoa khoa học máy tính của Trường Kỹ thuật Đại học Stanford; Tiến sĩ Jenny Radesky, giám đốc bộ phận nhi khoa phát triển hành vi của Trường Y Đại học Michigan; và Tiến sĩ Nadine Burke Harris, người từng là tổng bác sĩ phẫu thuật đầu tiên của California, tập hợp chuyên môn về nghiên cứu, thiết lập tiêu chuẩn và phát triển sản phẩm công nghệ.
Viện sẽ có “đội đỏ” dẫn dắt AI m odel và sản phẩm được giới trẻ sử dụng — kiểm tra căng thẳng chúng để xác định những rủi ro hoặc thiếu sót tiềm ẩn trong lan can an toàn.
Sau đó, họ sẽ xuất bản nghiên cứu dưới dạng hướng dẫn thân thiện với người tiêu dùng cho công chúng và phát triển các tiêu chuẩn hoặc tiêu chuẩn an toàn cho thanh thiếu niên AI mà các công ty công nghệ có thể sử dụng để phát triển hoặc cải tiến sản phẩm của họ.
Nó có kế hoạch phát hành nghiên cứu bắt đầu từ tháng này. Các công ty AI đã sử dụng các điểm chuẩn như vậy để đo lường và so sánh hiệu suất của họ với các số liệu khác.
Nhóm hy vọng áp lực của công chúng, cũng như các mối liên hệ trong ngành của họ, sẽ khuyến khích các công ty AI kết hợp các tiêu chuẩn vào quá trình phát triển và thử nghiệm của họ, đồng thời thực hiện các thay đổi về an toàn để cải thiện vị thế của họ.
Giannandrea nói: “Điểm chuẩn thực sự là huyết mạch trong cách mọi người đo lường và làm thế nào chúng tôi biết tất cả khoản đầu tư này sẽ mang lại những mô hình chất lượng cao hơn”.
“Điều chúng ta cần là một tiêu chuẩn về tác hại, đặc biệt là tác hại đối với trẻ em.” Một trong những thách thức đối với các nhà nghiên cứu là tốc độ phát triển AI.
Không giống như các sản phẩm vật lý được phát hành với nhịp độ đều đặn và có thể không thay đổi nhiều khi tung ra thị trường, các mô hình AI thường có được khả năng cập nhật mới, và do đó tiềm ẩn những rủi ro mới, hàng tuần ... cơ sở hàng tháng.
Steyer cho biết, việc thành lập Viện An toàn AI cho Thanh niên như một nhóm riêng biệt sẽ cho phép nghiên cứu mạnh mẽ và thường xuyên hơn để theo kịp sự tiến bộ nhanh chóng của các mô hình AI.
Common Sense Media được các bậc phụ huynh và nhà giáo dục sử dụng rộng rãi để xếp hạng phim, trò chơi điện tử và các nền tảng trực tuyến khác; tổ chức này cho biết nền tảng của họ có 150 triệu người dùng hàng tháng. Và nó đã nghiên cứu các rủi ro liên quan đến AI.
Năm ngoái, họ đã cảnh báo rằng các ứng dụng đồng hành với AI gây ra “những rủi ro không thể chấp nhận được” đối với giới trẻ.
Gợi ý thực hành:
1. Theo dõi thông báo từ cơ quan địa phương tại California.
2. Kiểm tra nguồn chính thức trước khi chia sẻ lại thông tin.