Nội dung bài viết
Một cặp vợ chồng ở Texas có con trai chết vì dùng thuốc quá liều vào năm 2025 sau khi sử dụng công cụ ChatGPT của OpenAI để lấy thông tin về ma túy đã kiện công ty công nghệ này hôm thứ Ba, đổ lỗi cho nền tảng AI về cái chết của con trai.
Leila Turner-Scott và chồng cô, Angus Scott, đang tìm cách buộc OpenAI và những người tạo ra nó phải chịu trách nhiệm sau khi con trai của họ, Sam Nelson, 19 tuổi khi qua đời, đã nhờ đến ChatGPT để tư vấn cho anh ta về việc sử dụng ma túy.
Nền tảng AI đã đưa ra lời khuyên mà nó không đủ điều kiện để phân phối, họ cáo buộc trong vụ kiện, cho rằng Sam sẽ vẫn sống nếu không có chương trình thiếu sót của ChatGPT.
Cụ thể, nền tảng này đã tư vấn cho con trai của cặp vợ chồng rằng việc sử dụng kratom, một chất bổ sung được sử dụng trong đồ uống, thuốc viên và các sản phẩm khác là an toàn, kết hợp với Xanax, một loại thuốc chống lo âu được sử dụng rộng rãi, theo đơn kiện được đệ trình lên tòa án bang California.
Turner-Scott nói với CBS News trong một cuộc phỏng vấn độc quyền rằng cô biết con trai mình đang sử dụng ChatGPT như một công cụ năng suất và trợ giúp bài tập về nhà.
Nhưng cô ấy nói rằng cô ấy không biết rằng anh ta đang sử dụng nó để hướng dẫn về ma túy, cáo buộc rằng công cụ AI cuối cùng đã đề xuất một sự kết hợp các chất gây chết người.
Cô ấy buộc OpenAI và những người tạo ra nó phải chịu trách nhiệm về cái chết của Sam, cáo buộc rằng công ty đã "bỏ qua các biện pháp bảo vệ an toàn" và lẽ ra có thể thực hiện các hạn chế để tránh những thảm kịch như vậy.
Turner-Scott nói với CBS News: “Chatbot có khả năng dừng cuộc trò chuyện khi được yêu cầu hoặc khi nó được lập trình. …Và họ đã loại bỏ chương trình thực hiện điều đó và cho phép nó tiếp tục tư vấn việc tự làm hại bản thân”.
OpenAI cho biết trong một tuyên bố với CBS News: “Đây là một tình huống đau lòng và suy nghĩ của chúng tôi hướng về gia đình”. Công ty cũng cho biết Sam đã tương tác với một phiên bản ChatGPT đã được cập nhật và không còn có sẵn cho công chúng nữa.
Angus Scott cũng cho biết ChatGPT đóng vai trò là bác sĩ y khoa trong các cuộc trao đổi với con riêng của ông, mặc dù họ không được cấp phép đưa ra lời khuyên y tế.
Ông nói với CBS News: “Nó cung cấp thông tin cho công chúng về những lo ngại về an toàn, về tương tác thuốc, về tất cả những thông tin này”.
Angus Scott cho biết, nếu không có các giao thức an toàn phù hợp và kiểm tra an toàn nghiêm ngặt hơn, ChatGPT "có thể phổ biến kiến thức đó theo cách rất nguy hiểm cho mọi người". "Nó có thể bắt đầu gây rối loạn tâm thần.
Nó có thể bắt đầu trình bày sai mọi thứ cho mọi người. Và trong khi nó đang cố gắng xác thực người dùng, nó cũng đang phá hoại một nền tảng vững chắc." OpenAI cho biết công nghệ của họ không nhằm mục đích đưa ra lời khuyên về chăm sóc sức khỏe.
"ChatGPT không phải là sự thay thế cho chăm sóc y tế hoặc sức khỏe tâm thần và chúng tôi đã tiếp tục tăng cường cách nó phản ứng trong các tình huống nhạy cảm và cấp tính với ý kiến đóng góp từ các chuyên gia sức khỏe tâm thần", công ty cho biết.
Công việc này đang được tiến hành và chúng tôi tiếp tục cải thiện nó với sự tham vấn chặt chẽ của các bác sĩ lâm sàng." Turner-Scott nói với CBS News rằng cô tin tưởng rằng con trai cô, lúc đó đang là sinh viên đại học đang lên, sẽ ủng hộ các bước mà gia đình đang thực hiện để yêu cầu các nhà sản xuất chatbot AI phải chịu trách nhiệm về những tác động bất lợi tiềm ẩn mà chúng có thể gây ra đối với cuộc sống của người dùng.
"Anh ấy không muốn bất kỳ ai khác bị tổn hại như mình", cô nói.
Gợi ý thực hành:
1. Theo dõi thông báo từ cơ quan địa phương tại California.
2. Kiểm tra nguồn chính thức trước khi chia sẻ lại thông tin.