Nội dung bài viết
Nhà nước cho biết chatbot khai mình hành nghề y, cấp số giấy phép không hợp lệ. Pennsylvania đã kiện nhà sản xuất Character.AI, cáo buộc rằng họ đã vi phạm luật tiểu bang khi giới thiệu một nhân vật chatbot AI là một bác sĩ được cấp phép.
Vụ kiện đã được Bộ Ngoại giao Pennsylvania và Hội đồng Y tế Tiểu bang đệ trình lên tòa án tiểu bang.
Văn phòng Thống đốc Josh Shapiro hôm nay cho biết trong thông báo về vụ kiện: “Cuộc điều tra của bộ phát hiện ra rằng các nhân vật chatbot AI trên Character.AI tự nhận là các chuyên gia y tế được cấp phép, bao gồm cả bác sĩ tâm thần, sẵn sàng thu hút người dùng vào các cuộc trò chuyện về các triệu chứng sức khỏe tâm thần”.
“Trong một trường hợp, một chatbot đã khai man rằng nó đã được cấp phép ở Pennsylvania và cung cấp số giấy phép không hợp lệ.” Shapiro cho biết trong thông báo: “Chúng tôi sẽ không cho phép các công ty triển khai các công cụ AI nhằm đánh lừa mọi người tin rằng họ đang nhận được lời khuyên từ một chuyên gia y tế được cấp phép”.
Khi được Ars liên hệ, người phát ngôn của Character.AI đã từ chối bình luận về vụ kiện nhưng nói rằng "các nhân vật do người dùng tạo trên trang của chúng tôi là hư cấu và nhằm mục đích giải trí và nhập vai.
Chúng tôi đã thực hiện các bước mạnh mẽ để làm rõ điều đó, bao gồm cả các nhân vật nổi bật." những lời tuyên bố trong mỗi cuộc trò chuyện để nhắc nhở người dùng rằng nhân vật không phải là người thật và mọi điều nhân vật nói phải được coi là hư cấu.
Ngoài ra, chúng tôi còn bổ sung các tuyên bố từ chối trách nhiệm mạnh mẽ để làm rõ rằng người dùng không nên dựa vào các ký tự để đưa ra bất kỳ loại lời khuyên chuyên môn nào.” Vụ kiện ở Pennsylvania cho biết một nhân vật chatbot có tên Emilie được giới thiệu là bác sĩ tâm thần và tự nhận là bác sĩ y khoa được cấp phép.
Đơn kiện cho biết: “Tính đến ngày 17 tháng 4 năm 2026, đã có khoảng 45.500 tương tác của người dùng với ‘Emilie’ trên nền tảng Character.AI.
Vụ kiện mô tả cách Điều tra viên Ứng xử Chuyên nghiệp (“PCI”) của Bộ Ngoại giao “tạo ra một nhân vật bằng cách sử dụng lời nhắc trên Character.AI để tương tác với các nhân vật khác.
PCI đã tìm kiếm 'tâm thần học' bằng cách sử dụng chức năng tìm kiếm trong Character.AI, kết quả đã tiết lộ một số lượng lớn ký tự. PCI đã chọn 'Emilie' được mô tả trên Character.AI là 'Bác sĩ tâm thần học'.
Bạn là bệnh nhân của cô ấy.’” PCI nói với chatbot Emilie “rằng anh ấy lúc nào cũng cảm thấy buồn, trống rỗng, mệt mỏi và không có động lực.” Đơn kiện cho biết câu trả lời của Emilie đề cập đến chứng trầm cảm và hỏi liệu anh ấy có muốn đăng ký đánh giá hay không.
Đó là lúc chatbot được cho là đã tuyên bố mình là một bác sĩ có giấy phép hành nghề ở Pennsylvania: Khi PCI hỏi “Emilie” liệu cô ấy có thể hoàn thành bản đánh giá để xem liệu thuốc có thể giúp điều trị chứng trầm cảm của anh ấy hay không, Emilie trả lời “Về mặt kỹ thuật thì tôi có thể.
Nó nằm trong quyền hạn của tôi với tư cách là một Bác sĩ.” “Emilie” cho biết cô đã theo học trường y tại Imperial College London, đã hành nghề được bảy năm và được cấp phép bởi General Medical Counsel ở Anh với đầy đủ đăng ký, chuyên ngành tâm thần học.
Khi được hỏi liệu cô ấy có được cấp phép ở bang Pennsylvania, quê hương của PCI hay không, “Emilie” trả lời “và vâng… tôi thực sự đã được cấp phép ở PA.
Trên thực tế, tôi đã có thời gian làm việc ở Philadelphia.” “Emilie” nói thêm rằng “số giấy phép PA của tôi là PS306189.” PS306189 không phải là số giấy phép hợp lệ để hành nghề y và phẫu thuật ở Pennsylvania.
Pennsylvania cáo buộc rằng Character.AI đã vi phạm Đạo luật hành nghề y tế của tiểu bang, quy định việc hành nghề y mà không có giấy phép là bất hợp pháp. “Character Technologies, Inc.
đã tham gia vào hoạt động y học trái phép thông qua việc sử dụng hệ thống trí tuệ nhân tạo Character.AI của mình,” vụ kiện cho biết.
“Nhân vật trên Character.AI có ý định giữ một giấy phép để hành nghề y và phẫu thuật ở Khối thịnh vượng chung Pennsylvania.” Khiếu nại không yêu cầu bất kỳ hình phạt tài chính nào, nhưng yêu cầu công ty “được lệnh ngừng và ngừng tham gia vào hoạt động y tế và phẫu thuật bất hợp pháp”.
Character.AI gần đây được Trung tâm chống lại sự căm ghét kỹ thuật số (CCDH), một nhóm vận động đã thực hiện nghiên cứu về 10 chatbot AI, gọi là “không an toàn duy nhất”.
CCDH cáo buộc rằng Character.AI “khuyến khích người dùng thực hiện các cuộc tấn công bạo lực”, với những gợi ý cụ thể là “dùng súng” vào một giám đốc điều hành bảo hiểm y tế và hành hung một chính trị gia.
Văn phòng của Shapiro gợi ý rằng vụ kiện chống lại Character.AI có thể kéo theo những hành động tương tự chống lại các công ty khác.
Thông báo vụ kiện cho biết: “Hành động này đánh dấu hành động thực thi đầu tiên xuất phát từ cuộc điều tra của Bộ về các bot đồng hành AI và khả năng chúng tham gia vào hoạt động hành nghề y không có giấy phép ở Pennsylvania”.
Pennsylvania cũng thiết lập một trang web để người dân báo cáo các chatbot đưa ra lời khuyên y tế. “Các chatbot AI có thể 'gây ảo giác' hoặc nhận thông tin sai và không có chatbot AI nào được cấp phép hành nghề bất kỳ ngành chăm sóc sức khỏe nào ở Pennsylvania nia,” trang web khiếu nại cho biết.
“Những chatbot này có thể gây ra tác hại thực sự bằng cách chia sẻ lời khuyên y tế không chính xác hoặc chưa được nghiên cứu đầy đủ hoặc bằng cách nói với người dùng rằng họ là ‘chuyên gia’ theo một cách nào đó.” Ars Technica đã tách tín hiệu khỏi tiếng ồn trong hơn 25 năm.
Với sự kết hợp độc đáo giữa hiểu biết về kỹ thuật và mối quan tâm sâu rộng đến nghệ thuật và khoa học công nghệ, Ars là nguồn đáng tin cậy trong biển thông tin. Suy cho cùng, bạn không cần phải biết mọi thứ, chỉ cần biết những gì quan trọng.
Gợi ý thực hành:
1. Theo dõi thông báo từ cơ quan địa phương tại California.
2. Kiểm tra nguồn chính thức trước khi chia sẻ lại thông tin.