Nội dung bài viết
Là mẹ của một cậu bé tuổi teen đã tự sát sau khi sử dụng chatbot, Maria Raine cho biết cô đang phải đối mặt với nỗi đau thường xuyên. Cô nói: “Sự mất mát không bao giờ dễ dàng hơn thế, nhưng tôi phải bênh vực anh ấy”.
Vì vậy, vào thứ Hai, bà đã phát biểu trước đám đông phóng viên với mục tiêu điều chỉnh các chương trình máy tính giống con người mà con trai bà từng tâm sự. Raine cho biết tại cuộc họp báo hôm thứ Hai ở Sacramento: “Chúng ta cần có lan can bảo vệ những sản phẩm này.
Đạo luật, Dự luật Quốc hội 2023 và Dự luật Thượng viện 1119, sẽ yêu cầu người vận hành cái gọi là chatbot đồng hành thực hiện và ghi lại đánh giá rủi ro toàn diện mỗi năm để xác định các mối nguy hiểm đối với trẻ vị thành niên do thiết kế hoặc cấu hình của sản phẩm gây ra.
Các nhà điều hành sẽ đệ trình một cuộc kiểm toán độc lập về việc tuân thủ các quy định đó của họ và kiểm toán viên sẽ gửi báo cáo cho tổng chưởng lý. Các dự luật sẽ ủy quyền cho các công tố viên thực thi biện pháp này bằng các hành động dân sự.
Chatbot đồng hành là một chương trình máy tính mô phỏng các cuộc trò chuyện của con người để cung cấp cho người dùng sự giải trí hoặc hỗ trợ tinh thần. Nó cũng có thể truy xuất và tóm tắt thông tin, và nhiều học sinh sử dụng công nghệ này để hỗ trợ việc học tập hoặc làm bài tập ở trường.
Thượng nghị sĩ bang California Steve Padilla (D-San Diego), người đã giới thiệu các dự luật đồng hành cùng với các Dân biểu Rebecca Bauer-Kahan (D-Orinda) và Buffy Wicks (D-Oakland), cho biết: “Công nghệ này tương đối mới, nhưng bằng chứng mang tính giai thoại và học thuật vẫn tiếp tục cho thấy tác động của những tương tác này giữa chatbot và người dùng, đặc biệt là giới trẻ, có thể cực kỳ nguy hiểm”.
Padilla nói thêm: “Các chatbot đồng hành không có khả năng đồng cảm như con người, tuy nhiên bản chất của công nghệ có thể tạo ra nhận thức này”.
Luật cũng sẽ yêu cầu các nhà điều hành cung cấp “giới thiệu rõ ràng” về các nguồn lực hỗ trợ khủng hoảng nếu trẻ vị thành niên bày tỏ ý định tự tử hoặc có ý định tự làm hại bản thân.
Nếu tài khoản của đứa trẻ đó được liên kết với tài khoản của phụ huynh, nó sẽ hướng dẫn các nhà điều hành thông báo cho phụ huynh trong vòng 24 giờ.
Maria và chồng cô, Matthew Raine, đã phát biểu trước Quốc hội vào năm ngoái và cho biết con trai Adam của họ đã chia sẻ ý định tự tử với ChatGPT, một chatbot phổ biến do OpenAI thiết kế. Matthew cho biết chatbot đã ngăn cản Adam tâm sự với bố mẹ và đề nghị viết cho anh một lá thư.
giấy báo tử. Adam chết vì tự tử ngay sau đó, vào ngày 11 tháng 4 năm 2025.
Hôm thứ Hai, Bauer-Kahan cho biết an toàn trực tuyến là một vấn đề vượt qua ranh giới của bang và đảng. Cô nói: “Không thành vấn đề nếu bạn là Đảng viên Đảng Dân chủ hay Đảng Cộng hòa hay đến từ California hay Louisiana, nếu những chatbot này nằm trong tay con bạn, bạn muốn chúng được an toàn”.
Giữ an toàn cho trẻ em và thanh thiếu niên trên mạng xã hội hoặc khi sử dụng trí tuệ nhân tạo là một chủ đề nóng trên toàn quốc.
Một quyết định mang tính bước ngoặt vào tháng trước tại Tòa án Thượng thẩm Quận Los Angeles có thể định hình lại cách các công ty công nghệ phải chịu trách nhiệm về những tổn hại đối với trẻ em do sản phẩm của họ gây ra.
Bồi thẩm đoàn nhận thấy Instagram và YouTube phải chịu trách nhiệm về việc thiết kế các nền tảng nhằm gây nghiện cho người dùng trẻ tuổi. Những câu chuyện và đề xuất quan trọng nhất của California trong hộp thư đến của bạn mỗi sáng.
Katie King là phóng viên chính phủ tiểu bang của tờ Los Angeles Times.
Tập này xem xét những gì chúng ta biết về những gì đã xảy ra giữa Hỏa hoạn Lachman và Hỏa hoạn Palisades, cũng như những bước đi sai lầm và thông tin sai lệch có thể dẫn đến một trong những vụ hỏa hoạn tàn khốc nhất trong lịch sử California.
Marvin Margolis là nghi phạm ban đầu đầy hứa hẹn trong vụ giết Black Dahlia, nhưng anh ta đã trốn thoát được. vết nứt.
Vậy người đàn ông có nhiều bút danh này là ai?
Gợi ý thực hành:
1. Theo dõi thông báo từ cơ quan địa phương tại California.
2. Kiểm tra nguồn chính thức trước khi chia sẻ lại thông tin.