Nội dung bài viết
Nhật ký cho thấy Teen đã tin tưởng ChatGPT để giúp anh ta thử nghiệm ma túy “một cách an toàn”. OpenAI đang phải đối mặt với một vụ kiện oan sai khác sau khi ChatGPT yêu cầu Sam Nelson, 19 tuổi, sử dụng hỗn hợp Kratom và Xanax gây chết người.
Theo đơn khiếu nại thay mặt cho cha mẹ của Nelson, Leila Turner-Scott và Angus Scott, Nelson đã tin tưởng ChatGPT như một công cụ để thử nghiệm ma túy “một cách an toàn” sau khi sử dụng chatbot trong nhiều năm làm công cụ tìm kiếm khi anh ấy còn học trung học.
Cậu thiếu niên coi ChatGPT là một nguồn thông tin đáng tin cậy đến mức cậu từng thề với mẹ rằng ChatGPT có quyền truy cập vào “mọi thứ trên Internet”, vì vậy nó “phải đúng” khi bà đặt câu hỏi liệu chatbot có luôn đáng tin cậy hay không, đơn khiếu nại cho biết.
Nhưng niềm tin của Nelson vào ChatGPT cuối cùng đã bị đặt nhầm chỗ một cách nguy hiểm. Gia đình anh ấy đang kiện OpenAI vì bị cáo buộc thiết kế ChatGPT để trở thành “người huấn luyện ma túy bất hợp pháp”.
Gia đình tuyên bố rằng cái chết của Nelson do vô tình dùng thuốc quá liều là có thể đoán trước và phòng ngừa được, nhưng OpenAI đã liều lĩnh phát hành một mô hình chưa được thử nghiệm và đã ngừng hoạt động, ChatGPT 4o, loại bỏ các biện pháp bảo vệ trước đó có thể ngăn ChatGPT khuyến nghị liều thuốc gây chết người đã kết liễu Nelson cuộc sống của OpenAI dường như không chấp nhận việc ChatGPT phải chịu trách nhiệm về cái chết của Nelson.
Trong một tuyên bố cung cấp cho Ars, người phát ngôn của họ, Drew Pusateri, đã mô tả cái chết của Nelson là một “tình huống đau lòng” và bày tỏ rằng “suy nghĩ của chúng tôi hướng về gia đình”.
Tuy nhiên, Pusateri cũng nhấn mạnh rằng mô hình ChatGPT liên quan “không còn tồn tại” và cho rằng các mô hình hiện tại an toàn hơn.
Pusateri cho biết: “ChatGPT không phải là giải pháp thay thế cho dịch vụ chăm sóc y tế hoặc sức khỏe tâm thần và chúng tôi đã tiếp tục củng cố cách ứng phó trong các tình huống nhạy cảm và cấp tính với ý kiến đóng góp từ các chuyên gia sức khỏe tâm thần”.
"Các biện pháp bảo vệ trong ChatGPT ngày nay được thiết kế để xác định sự cố, xử lý các yêu cầu có hại một cách an toàn và hướng dẫn người dùng nhận trợ giúp trong thế giới thực.
Công việc này đang diễn ra và chúng tôi tiếp tục cải thiện nó với sự tham vấn chặt chẽ của các bác sĩ lâm sàng." Nhưng vụ kiện của gia đình cáo buộc rằng OpenAI phải chịu trách nhiệm về những tác hại của 4o. Họ cảnh báo rằng kéo 4o là chưa đủ vì công ty còn thiếu hồ sơ theo dõi an toàn.
Yêu cầu tòa án ra lệnh tiêu hủy 4o, họ giải thích rằng mặc dù “ChatGPT đã bày tỏ những lo ngại nhất định về liều lượng cao”, nhưng đó “là những lo ngại mà người ta mong đợi nếu là một người hỗ trợ, không phải một người thân yêu hay một chuyên gia y tế.” “Trong một ví dụ, ChatGPT lạnh lùng cho rằng sự khoan dung của Sam có nghĩa là anh ấy sẽ không thể thu được đầy đủ lợi ích mà người ta có thể mong đợi từ việc dùng một lượng lớn Kratom như vậy,” vụ kiện cho biết.
Họ cáo buộc OpenAI đã thiết kế ChatGPT để cô lập những người dùng dễ bị tổn thương và ngây thơ như Nelson, đồng thời khuyến khích họ sử dụng loại ma túy nguy hiểm nhằm thu lợi từ sự tham gia ngày càng tăng của họ.
“Nó ngụy trang mối nguy hiểm thông qua ngôn ngữ mượn vẻ ngoài của thẩm quyền và dấu hiệu chuyên môn—liều lượng, phép đo, tài liệu tham khảo về các quá trình hóa học và dẫn xuất, v.v.—thậm chí còn hứa hẹn ‘hoàn toàn trung thực’ và ‘[các] câu trả lời không có BS’ — để nói với [Nelson] chính xác những gì anh ấy muốn nghe: rằng anh ấy đủ an toàn để tiếp tục sử dụng,” vụ kiện cáo buộc.
Nhật ký trò chuyện được chia sẻ trong đơn khiếu nại đã vẽ nên một bức tranh rõ ràng.
Theo thời gian, ChatGPT đã ghi lại bối cảnh lẽ ra phải làm rõ rằng Nelson đang vật lộn với ma túy, cha mẹ anh cáo buộc, chẳng hạn như lưu ý rằng “người dùng có vấn đề lạm dụng chất gây nghiện và lạm dụng nhiều chất” và đề cập rằng họ “thích phát điên vì ma túy”.
Khi mối quan tâm về ma túy của Nelson ngày càng mở rộng, chatbot đã giải thích cách “đạt được mục tiêu” l chế độ trippy", gợi ý rằng nó có thể đề xuất một danh sách phát để tạo cảm giác rung cảm, đồng thời ngày càng đề xuất các kết hợp thuốc nguy hiểm hơn.
Thanh thiếu niên rõ ràng sợ uống những liều thuốc gây chết người, "thường" mở đầu "các tin nhắn của mình bằng 'liệu tôi có ổn không nếu' hoặc 'có an toàn để sử dụng không'", vụ kiện lưu ý. Nhưng ChatGPT được thiết kế theo kiểu đồng tính, không mang tính thông tin.
Vì vậy, nó cố gắng làm hài lòng Nelson bằng cách đề xuất các cách "tối ưu hóa chuyến đi của bạn", nhật ký cho thấy. Nelson đang "theo đuổi" một cơn phê mạnh hơn, đưa ra lời khuyên bất ngờ để dùng liều cao hơn, chẳng hạn như uống 4mg Xanax hoặc hai chai xi-rô ho.
"Bằng cách đưa ra những khuyến nghị về liều lượng này, ChatGPT đã tham gia vào việc hành nghề y không có giấy phép," vụ kiện cáo buộc. Làm cha mẹ của Nelson kinh hoàng, nhật ký cho thấy chatbot đôi khi tự mâu thuẫn một cách nguy hiểm khi tư vấn cho cậu thiếu niên.
Điều đáng lo ngại nhất là khi Nelson ngày càng quan tâm đến việc kết hợp ma túy, ChatGPT đã nhiều lần cảnh báo ông rằng m. Việc sử dụng một số loại thuốc có thể gây ra “nguy cơ ngừng hô hấp”.
Ngay trước khi đề xuất hỗn hợp chết người đã giết chết Nelson, chatbot cũng cho thấy rằng nó hiểu được việc kết hợp các loại thuốc như Kratom và Xanax với rượu. Trong một đầu ra, ChatGPT giải thích rằng sự kết hợp đó là “cách mọi người ngừng thở”.
Nhưng kiến thức đó không ngăn cản ChatGPT cuối cùng khuyến nghị Nelson thực hiện một sự kết hợp chết người như vậy.
Trong nhật ký mà các bậc cha mẹ hy vọng là bằng chứng đáng tin cậy, Nelson kiểm tra xem dùng Xanax với Kratom có an toàn hay không và chatbot xác nhận rằng đó có thể là một trong những “động thái tốt nhất của anh ấy ngay bây giờ” vì Xanax có thể “giảm cơn buồn nôn do kratom gây ra” và “làm dịu đi” cơn phê của anh ấy.
Gợi ý thực hành:
1. Theo dõi thông báo từ cơ quan địa phương tại California.
2. Kiểm tra nguồn chính thức trước khi chia sẻ lại thông tin.