Ilya Sutskever và Jan Leike đã rời công ty OpenAI ngày hôm qua, vài giờ sau khi ra mắt GPT-4.0, Andrej Karpathy đã rời công ty vào tháng 2.
Cùng tuần OpenAI thu hút sự chú ý toàn cầu khi phát hành mô hình AI mới nhất của mình , các giám đốc điều hành nổi tiếng Ilya Sutskever và Jan Leike đã thông báo rằng họ sẽ rời công ty.
Cùng với sự ra đi vào tháng 2 của Andrej Karpathy, có vẻ như những người cam kết phát triển AI an toàn, lấy con người làm trung tâm nhất đã rời công ty.
Phải chăng tên tuổi hàng đầu về AI đã bị mất bàn đạp phanh trong cuộc đua khốc liệt nhằm thống trị ngành công nghiệp đột phá ồ ạt?
Đó là vào đầu năm 2023 khi Sutskever, đồng sáng lập và cựu nhà khoa học trưởng, được cho là người chủ mưu đằng sau động thái gây tranh cãi nhằm lật đổ CEO Sam Altman vì bị cáo buộc lo ngại rằng ông ung dung về các giao thức an toàn AI.
Việc loại bỏ đầy kịch tính của ông đã dẫn đến những tiêu đề khó thở và tin đồn lan rộng , nhưng Altman đã được phục hồi chức vụ một tuần sau đó.
Sutskever nhanh chóng đưa ra lời xin lỗi và từ chức khỏi hội đồng quản trị của OpenAI và không đưa ra bất kỳ tuyên bố hay xuất hiện công khai nào kể từ đó.
Thật vậy, khi OpenAI trình bày bản cập nhật sản phẩm được quảng cáo rầm rộ vào thứ Hai, Sutskever đã vắng mặt một cách đáng chú ý.
Sutskever tuyên bố chính thức ra đi chỉ hai ngày sau đó. Tuyên bố từ chức của ông rất thân mật, cũng như sự thừa nhận công khai của Altman.
Sutskever viết: “Sau gần một thập kỷ, tôi đã đưa ra quyết định rời OpenAI. ”Quỹ đạo của công ty không có gì là kỳ diệu và tôi tin tưởng rằng OpenAI sẽ xây dựng AGI vừa an toàn vừa có lợi dưới sự lãnh đạo của (Sam Altman, Greg Brockman và Mira Murati).
“Thật vinh dự và vinh dự khi được làm việc cùng nhau, và tôi sẽ rất nhớ mọi người,” anh tiếp tục, đồng thời cho biết thêm rằng anh đang chuyển sang tập trung vào một dự án có ý nghĩa cá nhân.
“Điều này đối với tôi rất buồn; Ilya dễ dàng là một trong những bộ óc vĩ đại nhất của thế hệ chúng tôi, là ánh sáng dẫn đường cho lĩnh vực của chúng tôi và là một người bạn thân yêu,” Sam Altman nói, “OpenAI sẽ không như vậy nếu không có anh ấy.” Anh ấy cũng trả lời thông báo của Sutskever bằng một tin nhắn ngắn gọn
Ngay sau đó, OpenAI thông báo rằng Jakub Panochi sẽ đảm nhận vị trí của Sutskever. Panochi trước đây từng là Giám đốc Nghiên cứu và có công việc mang tính kỹ thuật hơn, tập trung chủ yếu vào việc mở rộng quy mô AI.
Nhưng có thể còn có điều gì đó hơn thế nữa trong việc thay đổi người bảo vệ. Khi Sutskever tuyên bố từ chức, ông chỉ theo dõi một số tài khoản Twitter, bao gồm OpenAI và một tài khoản meme dachshund.
Một người nào đó tên là Adam Sulik, người tự mô tả là “trung tâm AI”, đã trả lời thông báo, đề nghị Sutskever bỏ qua mọi thỏa thuận không tiết lộ mà anh ta vẫn có thể phải tuân theo và chia sẻ thông tin nội bộ dưới danh nghĩa nhân loại.
Sutskever đã theo dõi Sulik sau bình luận của anh ấy… rồi hủy theo dõi anh ấy vài giờ sau đó .
Hóa ra, Sutskever không đơn độc đi đến lối ra. Chỉ vài giờ sau, Jan Leike người đồng sáng lập nhóm “siêu liên kết” của OpenAI với Sutskever để đảm bảo sự phát triển AI lâu dài, có đạo đức đã từ chức với một dòng tweet lạnh lùng chỉ nói rằng: ” Tôi đã từ chức .”
Không có lời hài hước nào, không có lời khen ngợi nào dành cho OpenAI và không có phản hồi nào từ các nhà điều hành OpenAI.
Leike đã từng làm việc tại Deepmind của Google trước khi gia nhập OpenAI. Tại công ty thứ hai, nhóm siêu liên kết tập trung vào việc đảm bảo rằng các hệ thống tiên tiến trong đó AI được kỳ vọng sẽ đáp ứng hoặc vượt quá trí thông minh của con người vẫn phù hợp với các giá trị và ý định của con người.
Tuy nhiên, không có nhiều thông tin về nhóm lính canh an toàn AI này. Ngoài hai nhà lãnh đạo, OpenAI chưa cung cấp thêm bất kỳ thông tin nào về đơn vị ngoài việc còn có “các nhà nghiên cứu và kỹ sư khác từ nhóm liên kết trước đây của [nó], cũng như các nhà nghiên cứu từ các nhóm khác trong toàn công ty”.
Sulik cũng bình luận về việc Leike từ chức, chia sẻ mối quan ngại của ông về thời gian diễn ra các sự kiện.
“Việc chứng kiến Jan rời đi ngay sau khi Ilya không phải là điềm báo tốt cho con đường an toàn phía trước của nhân loại,” anh ấy tweet.
OpenAI đã không trả lời ngay lập tức yêu cầu bình luận từ Decrypt.
Những sự ra đi này diễn ra vài tháng sau khi người đồng sáng lập OpenAI Andrej Karpathy rời công ty và nói vào tháng 2 rằng anh ấy muốn theo đuổi các dự án cá nhân.
Karpathy từng là nhà khoa học nghiên cứu tại OpenAI và tham gia vào các dự án khác nhau từ ứng dụng thị giác máy tính đến trợ lý AI và những phát triển quan trọng trong quá trình đào tạo ChatGPT.
Ông đã nghỉ việc 5 năm tại công ty từ năm 2017 đến năm 2022 để lãnh đạo bộ phận phát triển AI tại Tesla.
Với ba sự ra đi này, OpenAI không còn một số bộ óc quan trọng nhất theo đuổi cách tiếp cận có đạo đức đối với AGI.
Có những dấu hiệu cho thấy việc Altman thất bại đã loại bỏ sự phản kháng trước những cơ hội sinh lời nhiều hơn nhưng lại có nhiều mây mù về mặt đạo đức.
Chẳng hạn, ngay sau khi khôi phục Altman, OpenAI đã nới lỏng các hạn chế trong việc sử dụng công nghệ của mình cho các ứng dụng có khả năng gây hại như phát triển vũ khí các hướng dẫn trước đây đã cấm hoàn toàn các hoạt động như vậy.
Ngoài việc đạt được thỏa thuận với Lầu Năm Góc, OpenAI còn mở một cửa hàng plugin cho phép mọi người thiết kế và chia sẻ các trợ lý AI được cá nhân hóa, làm giảm hiệu quả hoạt động giám sát trực tiếp.
Gần đây nhất, công ty bắt đầu “khám phá” việc tạo ra nội dung người lớn.
Sức mạnh suy giảm của những người ủng hộ và hướng dẫn đạo đức vượt ra ngoài AI mở. Microsoft đã sa thải toàn bộ nhóm đạo đức và xã hội của mình vào tháng 1, đồng thời Google cũng loại bỏ lực lượng đặc nhiệm AI có trách nhiệm của mình trong cùng tháng đó.
Trong khi đó, Meta đang giải tán đội ngũ AI có đạo đức của mình. Trong khi đó, cả ba gã khổng lồ công nghệ đều đang điên cuồng thống trị thị trường AI.
Có lý do rõ ràng cho mối quan tâm. Các sản phẩm AI đã trở nên phổ biến rộng rãi, một hiện tượng xã hội với hàng tỷ lượt tương tác mỗi ngày.
Dường như ngày càng có nhiều khả năng AI không liên kết sẽ tác động tiêu cực đến sự phát triển của các thế hệ tương lai trong các lĩnh vực kinh doanh, chính trị, cộng đồng và thậm chí cả gia đình.
Sự trỗi dậy của các phong trào triết học như “chủ nghĩa tăng tốc hiệu quả” – coi trọng sự phát triển nhanh chóng hơn những lo lắng về đạo đức – càng làm trầm trọng thêm những mối lo ngại này.
Hiện tại, thành trì thận trọng chính còn lại dường như là sự kết hợp giữa phát triển nguồn mở, sự tham gia tự nguyện vào các liên minh an toàn AI chẳng hạn như Diễn đàn Mô hình Biên giới hoặc MLCommons và quy định hoàn toàn của chính phủ, từ Đạo luật AI ở Vương quốc Anh quy tắc ứng xử AI của G7.
Tin Tức Bitcoin tổng hợp