​Nỗi sợ AI hủy diệt xuất hiện sau sự trở lại của Sam Altman

the fear of destructive ai appears after the return of sam altman 6560e721201c0 | Dang Ngoc Duy

“Hội đồng quản trị có thể sa thải tôi,” Sam Altman nói Bloomberg vào tháng 6 năm nay, đề cập đến sự bất thường của OpenAI hệ điều hành . Năm tháng sau, những gì ông nói đã xảy ra vào ngày 17 tháng 11. Cấu trúc của công ty cho phép bất kỳ ai, bao gồm cả CEO và chủ tịch, đều có thể bị sa thải vì những hành động “gây tổn hại đến lợi ích của nhân loại” theo quan điểm của hội đồng quản trị. Đây được coi là điểm độc đáo, giúp OpenAI trở thành một tổ chức phi lợi nhuận trong nghiên cứu AI, nhưng vẫn có thể huy động vốn đầu tư để xây dựng những cỗ máy đắt tiền và thu hút nhân tài.

"Nhưng hóa ra, họ vẫn không thể sa thải anh ta. Thật tệ", Toby Ord, một nhà nghiên cứu tại Đại học Oxford và là tiếng nói trong số các chuyên gia cảnh báo rằng AI có thể gây ra rủi ro hiện hữu cho nhân loại, bình luận.

Từ lá thư đáng lo ngại

Tại sao hội đồng quản trị của OpenAI lại loại bỏ Altman vẫn còn là một bí ẩn. Một số nguồn tin cho biết Altman đã dành quá nhiều thời gian cho các dự án phụ, quá phụ thuộc vào Microsoft và hội đồng quản trị muốn ngăn cản ông thương mại hóa mô hình AI chung ( AGI ) – một hệ thống siêu thông minh có thể gây hại cho con người.

Trong khi đó, Reuters trích dẫn một nguồn tin nội bộ cho biết vào ngày 23 tháng 11, CTO của OpenAI Mira Murati nói với nhân viên của mình rằng một lá thư mật do các nhà nghiên cứu của OpenAI gửi tới hội đồng quản trị, cảnh báo về mối nguy hiểm của dự án Q* (Q-Star) đã dẫn đến quyết định sa thải đột ngột.

Sam Altman, CEO of OpenAI. Photo: TechCrunch

Sam Altman, CEO của OpenAI. Ảnh: TechCrunch

Nội dung chi tiết của bức thư chưa được tiết lộ, nhưng các chuyên gia tin rằng OpenAI đã đạt được bước đột phá lớn, hướng tới khả năng tạo ra AGI – mô hình AI “siêu thông minh” có thể vượt qua con người ở hầu hết các nhiệm vụ có giá trị kinh tế.

Một nguồn tin nội bộ sau đó đã nói Reuters rằng Q* vẫn còn "ở trình độ tiểu học", nhưng tương lai còn rộng mở vì khả năng tự học của nó đang được cải thiện với tốc độ "hàng giờ". Một nguồn tin khác cho biết thuật toán trên Q* có thể "vượt qua toán trung học" và các nhà nghiên cứu OpenAI rất lạc quan về thành công của dự án.

Hiện tại, các mô hình AI rất giỏi trong việc viết và dịch ngôn ngữ, nhưng cũng đưa ra nhiều câu trả lời khác nhau cho cùng một câu hỏi. Tùy thuộc vào nguồn dữ liệu mà nó được đào tạo, nó có thể bịa ra các sự kiện và câu trả lời có thể không phải lúc nào cũng đúng. Nhưng với sự hiểu biết toán học tiên tiến, AI có thể tính toán và đưa ra một câu trả lời đúng duy nhất, điều đó có nghĩa là nó có khả năng suy luận tốt hơn, tương tự như trí thông minh của con người.

Các nhà khoa học tin rằng tư duy toán học của AGI có thể được áp dụng vào nghiên cứu mới. Không giống như máy tính chỉ có thể giải quyết một số lượng phép tính hạn chế, AGI có thể khái quát hóa, học hỏi và thậm chí "hiểu" những gì nó đang làm.

Bức thư bí mật đề cập đến “mối nguy hiểm tiềm tàng và sức mạnh” mà Q* có thể gây ra. Trước đó, OpenAI cũng được cho là đã đánh dấu một công trình nghiên cứu khác do nhóm “AI Scientist” tạo ra. Sự tồn tại của nhóm được xác nhận bởi một số nguồn nội bộ, với sứ mệnh khám phá cách tối ưu hóa các mô hình AI hiện có để cải thiện suy luận và cuối cùng là thực hiện công việc khoa học.

Trong những ngày cuối cùng trước khi bị lật đổ, Sam Altman cũng đề cập rằng OpenAI đã có những tiến bộ lớn. “Trong bốn lần OpenAI tạo nên lịch sử, lần cuối cùng chỉ mới diễn ra cách đây vài tuần. Tôi đã ở trong phòng. Chúng tôi gần như đã đẩy lùi bóng tối phía trước và mở ra những ranh giới khám phá mới. Chúng tôi đã làm được. Đó là vinh dự nghề nghiệp của cả cuộc đời”, Altman phát biểu tại Diễn đàn Hợp tác Kinh tế Châu Á - Thái Bình Dương (APEC) vào ngày 16 tháng 11 tại San Francisco.

Một ngày sau, anh bị hội đồng quản trị OpenAI sa thải thông qua Google Meet.

Một OpenAI mới nguy hiểm hơn

Sự trở lại của Altman với OpenAI hiện đang gây ra nhiều phản ứng trái chiều. Việc có một công cụ như Q* trong tay và không còn bị hội đồng quản trị cũ ngăn cản có thể thúc đẩy CEO này thương mại hóa sản phẩm nhanh hơn.

Altman liên tục nói về rủi ro của AI gây hại cho thế giới , nhưng đồng thời huy động hàng tỷ đô la để phát triển các mô hình siêu thông minh. Điều này khiến những nhân vật quyền lực ở Thung lũng Silicon cảm thấy khó chịu.

“Sự nổi lên của Altman như bộ mặt của 'AI tận thế' khiến nhiều người lo ngại về những rủi ro, đặc biệt là khi AI ngày càng trở nên mạnh mẽ và dễ tiếp cận hơn,” Có dây đã bình luận. bài luận.

Theo giáo sư Rayid Ghani của Đại học Carnegie Mellon, Altman một mặt nói rằng "hãy quản lý chúng tôi, nếu không chúng tôi sẽ hủy diệt thế giới", nhưng mặt khác lại cố gắng làm cho siêu AI trở nên mạnh mẽ hơn nữa. "Tôi nghĩ rằng điều đó hoàn toàn đánh lạc hướng chúng ta khỏi những rủi ro thực sự đang xảy ra như thay đổi việc làm, phân biệt đối xử, minh bạch và trách nhiệm giải trình", Ghani nói Có dây .

OpenAI cho biết ban giám đốc mới hiện vẫn "tạm thời" và có kế hoạch thêm một số người khác vào danh sách. Mặc dù Altman cho biết ông "sẽ duy trì hoạt động của OpenAI như trước", một số chuyên gia nghi ngờ rằng khi không còn ai cản đường, ông sẽ tiến gần hơn đến Microsoft hoặc thực hiện các dự án của riêng mình theo hướng thương mại hóa thay vì từ thiện. lợi nhuận.

“Bây giờ, mọi thứ không còn là cuộc cạnh tranh giữa các phòng thí nghiệm nữa – nơi những người thiết lập chúng thực sự quan tâm đến ý nghĩa, đến những gì chúng có thể làm,” nhà nghiên cứu Toby Ord của Đại học Oxford cho biết. “Tương lai gần sẽ là cuộc đua giữa một số công ty AI lớn nhất thế giới. Theo khía cạnh này, tôi nghĩ mọi thứ trở nên khá nguy hiểm.”

Bảo Lâm

Trả lời

viVI