Nội dung bài viết
StrictlyVC đầu tiên của năm 2026 sẽ ra mắt SF vào ngày 30 tháng 4. Vé đang bán rất nhanh.
Đăng ký ngay bây giờ. Mua một thẻ Disrupt và nhận thẻ thứ hai với mức giảm giá 50%.
Kết thúc vào ngày 8 tháng 5. Đăng ký ngay.
Nỗ lực pháp lý của Elon Musk nhằm phá bỏ OpenAI có thể xoay quanh cách công ty con vì lợi nhuận của nó tăng cường hoặc làm giảm sút sứ mệnh thành lập của phòng thí nghiệm biên giới là đảm bảo rằng nhân loại được hưởng lợi từ trí tuệ nhân tạo nói chung.
Hôm thứ Năm, một tòa án liên bang ở Oakland, California, đã nghe một cựu nhân viên và thành viên hội đồng quản trị nói rằng những nỗ lực của công ty trong việc đưa các sản phẩm AI ra thị trường đã làm tổn hại đến cam kết của họ đối với sự an toàn của AI.
Rosie Campbell gia nhập nhóm sẵn sàng AGI của công ty vào năm 2021 và cô rời OpenAI vào năm 2024 sau khi nhóm của cô giải tán. Một nhóm tập trung vào an toàn khác, nhóm Super Alignment, đã ngừng hoạt động trong cùng khoảng thời gian.
Cô làm chứng: “Khi tôi tham gia, mọi người thường nói về AGI và các vấn đề an toàn rất tập trung vào nghiên cứu và thông thường.
“Theo thời gian, nó trở thành một tổ chức tập trung vào sản phẩm hơn.” Trong quá trình kiểm tra chéo, Campbell thừa nhận rằng có thể cần nguồn tài trợ đáng kể cho mục tiêu xây dựng AGI của phòng thí nghiệm nhưng cho biết việc tạo ra một mô hình máy tính siêu thông minh mà không có sự đảm bảo an toàn phù hợp ...
đảm bảo tại chỗ sẽ không phù hợp với sứ mệnh của tổ chức mà cô ấy tham gia ban đầu. Campbell chỉ ra một sự cố trong đó Microsoft đã triển khai một phiên bản của mẫu GPT-4 của công ty ở Ấn Độ thông qua công cụ tìm kiếm Bing trước khi mô hình này được Ban An toàn Triển khai (DSB) của công ty đánh giá.
Bà nói, bản thân mô hình này không gây ra rủi ro lớn, nhưng công ty cần "đặt tiền lệ mạnh mẽ khi công nghệ ngày càng mạnh mẽ hơn.
Chúng tôi muốn có các quy trình an toàn tốt tại chỗ mà chúng tôi biết rằng đang được tuân thủ một cách đáng tin cậy." Các luật sư của OpenAI cũng yêu cầu Campbell thừa nhận rằng theo “ý kiến suy đoán” của cô ấy, cách tiếp cận an toàn của OpenAI vượt trội hơn so với xAI, công ty AI mà Musk thành lập đã được SpaceX mua lại vào đầu năm nay.
OpenAI đưa ra các đánh giá về các mô hình của mình và chia sẻ khuôn khổ an toàn một cách công khai, nhưng công ty từ chối bình luận về cách tiếp cận hiện tại của mình đối với việc liên kết AGI. Dylan Scandinaro, người đứng đầu bộ phận chuẩn bị hiện tại, đã được thuê từ Anthropic vào tháng Hai.
Altman cho biết việc thuê sẽ giúp anh ấy “ngủ ngon hơn tối nay”. Tuy nhiên, việc triển khai GPT-4 ở Ấn Độ là một trong những dấu hiệu nguy hiểm khiến hội đồng phi lợi nhuận của OpenAI sa thải CEO Sam Altman trong thời gian ngắn vào năm 2023.
Vụ việc đó xảy ra sau khi các nhân viên, bao gồm cả nhà khoa học trưởng lúc đó là Ilya Sutskever và CTO Mira Murati lúc đó, phàn nàn về phong cách quản lý không thích xung đột của Altman.
Tasha McCauley, một thành viên hội đồng quản trị vào thời điểm đó, đã làm chứng về những lo ngại rằng Altman chưa sẵn sàng với hội đồng quản trị để cơ cấu bất thường của nó hoạt động. McCauley cũng thảo luận về một mô hình được báo cáo rộng rãi về việc Altman đánh lừa hội đồng quản trị.
Đáng chú ý, Altman đã nói dối một thành viên hội đồng khác về ý định của McCauley nhằm loại bỏ Helen Toner, thành viên hội đồng thứ ba, người đã xuất bản một sách trắng trong đó có một số lời chỉ trích ngụ ý về chính sách an toàn của OpenAI.
Altman cũng không thông báo cho hội đồng quản trị về quyết định ra mắt ChatGPT một cách công khai và các thành viên lo ngại về việc anh ta không tiết lộ những xung đột lợi ích tiềm ẩn.
McCauley nói trước tòa: “Chúng tôi là một hội đồng phi lợi nhuận và nhiệm vụ của chúng tôi là có thể giám sát tổ chức vì lợi nhuận bên dưới chúng tôi”. "Cách chính của chúng tôi để làm điều đó là bị thẩm vấn.
Chúng tôi không có chút tự tin nào để tin rằng thông tin được chuyển đến cho chúng tôi sẽ cho phép chúng tôi đưa ra quyết định một cách sáng suốt." Tuy nhiên, quyết định khởi động Altman lại đến vào lúc thời gian như một lời đề nghị chào mua cho nhân viên của công ty.
McCauley nói rằng khi nhân viên của OpenAI bắt đầu đứng về phía Altman và Microsoft nỗ lực khôi phục hiện trạng, hội đồng quản trị cuối cùng đã đảo ngược hướng đi, với việc các thành viên phản đối việc Altman từ chức.
Sự thất bại rõ ràng của hội đồng phi lợi nhuận trong việc tác động đến tổ chức vì lợi nhuận liên quan trực tiếp đến trường hợp của Musk rằng việc chuyển đổi OpenAI từ tổ chức nghiên cứu thành một trong những công ty tư nhân lớn nhất thế giới đã phá vỡ thỏa thuận ngầm của những người sáng lập tổ chức.
David Schizer, cựu hiệu trưởng Trường Luật Columbia, người đang được nhóm của Musk trả tiền để làm nhân chứng chuyên môn, cũng có cùng quan điểm với McCauley. Schizer cho biết: “OpenAI đã nhấn mạnh rằng một phần quan trọng trong sứ mệnh của họ là an toàn và họ sẽ ưu tiên an toàn hơn lợi nhuận”.
"Một phần trong đó là việc thực hiện nghiêm túc các quy tắc an toàn, nếu điều gì đó cần được xem xét về an toàn thì điều đó cần phải được thực hiện.
Điều quan trọng là vấn đề quy trình." Với việc AI đã được nhúng sâu vào các công ty vì lợi nhuận, vấn đề này vượt xa phạm vi một phòng thí nghiệm đơn lẻ. McCauley cho biết những thất bại trong quản trị nội bộ tại OpenAI nên là lý do để chấp nhận quy định mạnh mẽ hơn của chính phủ về một hệ thống.
AI tiên tiến — “[nếu] tất cả đều phụ thuộc vào một CEO đưa ra những quyết định đó và chúng ta có lợi ích công cộng đang bị đe dọa, điều đó rất kém tối ưu.”
Gợi ý thực hành:
1. Theo dõi thông báo từ cơ quan địa phương tại California.
2. Kiểm tra nguồn chính thức trước khi chia sẻ lại thông tin.