Cơn bão “đảo chính” càn quét OpenAI cuối tuần qua khiến ngành AI toàn cầu choáng váng. Một bài viết trước đây của Wall Street News đã đề cập rằng nguyên nhân sâu xa của cuộc đấu tranh nội bộ này có thể nằm ở sự mâu thuẫn giữa quy định về AI và thương mại hóa - Nhà khoa học trưởng của OpenAI Ilya Sutskever không thể chấp nhận chiến lược thương mại hóa triệt để của CEO Sam Altman nên đã hợp tác với các giám đốc khác để đuổi Altman và chủ tịch công ty Greg Brockman.

Nhưng OpenAI không phải là công ty duy nhất tiếp tục tăng tốc độ thương mại hóa và đặt bảo mật AI ở vị trí thứ yếu. Điều này đúng với toàn bộ Thung lũng Silicon.

Mâu thuẫn giữa tham vọng và an ninh

Trước khi Sam Altman bị lật đổ, tham vọng và tính cấp tiến trong thương mại hóa của OpenAI đã khiến nhà khoa học trưởng của OpenAI Ilya Sutskever và những người khác lo lắng.

Các phương tiện truyền thông trích dẫn phân tích từ những người quen thuộc với vấn đề này chỉ ra rằng xung đột giữa Altman và Sutskever bao gồm bảo mật AI, tốc độ phát triển công nghệ và thương mại hóa công ty. Tham vọng "công khai" của Altman cũng có thể góp phần vào tình trạng này.

Ngoài việc phát triển các mô hình lớn, Altman còn có kế hoạch tham gia vào nhiều ngành công nghiệp như phát triển phần cứng và chip AI. Trước đây, có thông tin cho rằng Altman đang tìm cách huy động hàng chục tỷ đô la từ các quỹ tài sản có chủ quyền ở Trung Đông để tạo ra một công ty khởi nghiệp về chip AI nhằm cạnh tranh với GPU Nvidia; Altman cũng đang tìm kiếm nguồn đầu tư hàng tỷ USD từ SoftBank Masayoshi Son và cựu giám đốc thiết kế của Apple Jony Ivy để phát triển một thiết bị phần cứng; ông cũng đã đầu tư vào Humane, một công ty phần cứng AI được thành lập bởi các nhà thiết kế cũ của Apple Imran Chaudhri và Bethany Bongiorno.

Hơn nữa, sự ra mắt nhanh chóng gần đây của hàng loạt chức năng bom tấn như đa phương thức và GPT cũng khiến nhà khoa học trưởng Ilya Sutskeve cảm thấy bất an. Ông tin rằng OpenAI cần thêm thời gian để tìm ra lộ trình nghiên cứu thay vì vội vã triển khai sản phẩm.

Vì vậy, tại cuộc họp hội đồng quản trị ngày 17 tháng 11, đấu đá nội bộ đã nổ ra. Ilya Sutskeve ngay lập tức nói rằng công ty không nên tiếp tục huy động vốn và mở rộng quy mô. Altman rời cuộc họp mà không có sự đồng ý của ban giám đốc và sau đó bị sa thải trực tiếp.

Sutskever có xu hướng đặt sự an toàn lên hàng đầu

TAGPH 80

So với Altman, Sutskever có nền tảng kỹ thuật sâu hơn. Anh ấy là đồng nghiệp của Geoffrey Hinton, người đoạt giải Turing và là một trong những nhà thiết kế của AlexNet, mạng tích chập sâu đầu tiên. Tương tự như vậy, anh ấy quan tâm nhiều hơn đến các mối đe dọa tiềm tàng của AI.

Trong các bài phát biểu và phỏng vấn trước công chúng, Sutskever đã nhiều lần tuyên bố rằng công việc chính của ông không phải là phát triển GPT-5 mà là tìm ra cách làm cho "siêu trí tuệ" trở nên an toàn và có thể kiểm soát được.

Trong lịch sử 8 năm của OpenAI, đây không phải là lần đầu tiên xuất hiện mâu thuẫn giữa thương mại hóa và an toàn AI. Vào cuối năm 2020, một số nhân viên đã tách khỏi OpenAI và thành lập công ty khởi nghiệp Anthropic của riêng họ do sự khác biệt trong chiến lược kinh doanh và tốc độ phát hành công nghệ của công ty. Để đảm bảo sự phát triển công nghệ của OpenAI không bị ảnh hưởng bởi các ưu đãi tài chính, Anthropic đã thành lập một nhóm 5 người độc lập có thể thuê và sa thải ban giám đốc của công ty.

Trong nhiều năm, những người thực hành AI đã lo lắng rằng các mô hình mạnh hơn có thể bị lạm dụng, chẳng hạn như phát triển vũ khí sinh học, tạo ra các bản deepfake thuyết phục hoặc hack cơ sở hạ tầng quan trọng. Một số người cũng tin rằng những hệ thống này cuối cùng có thể trở nên tự chủ và vượt khỏi tầm kiểm soát với tổn thất do con người gây ra.

Khi OpenAI phát triển trí tuệ nhân tạo mang tính đột phá có thể tự động hóa việc viết, lập trình và tạo ra hình ảnh sống động như thật từ đầu, một số nhân viên tại công ty bắt đầu lo lắng về điều gì sẽ xảy ra khi AI học cách tự cải thiện bản thân?

Mùa hè này, công ty đã thành lập một nhóm, do Sutskever và nhà nghiên cứu 'liên kết' Jan Leike đồng lãnh đạo (nghiên cứu AIalignment là sử dụng nhiều phương tiện kỹ thuật khác nhau để điều chỉnh mục tiêu của hệ thống AI phù hợp với lợi ích của con người và ngăn hệ thống AI thực hiện các hành vi gây hại cho con người), chuyên tìm kiếm các giải pháp kỹ thuật để ngăn hệ thống AI của họ vượt khỏi tầm kiểm soát.

Trong một bài đăng trên blog, OpenAI cho biết họ sẽ tập trung 1/5 tài nguyên máy tính của mình vào việc giải quyết mối đe dọa về "siêu trí tuệ", mà Sutskever và Leike lưu ý "có thể dẫn đến sự mất quyền lực hoặc thậm chí tuyệt chủng của loài người".

Trái ngược với tham vọng và tính cấp tiến của Altman, Sutskever luôn rất quan tâm đến vấn đề an ninh. Trong một cuộc phỏng vấn vào tháng 7, Sutskever cho biết ông lo lắng nhất về sự nguy hiểm của AI phổ quát mạnh mẽ trong vài năm tới, nhưng hy vọng rằng công nghệ AI có thể giúp con người tự điều chỉnh trong tương lai. Bản thân việc Altman có thể bị sa thải là một ví dụ về sự “liên kết” này.

Anh ấy có rất nhiều người theo dõi trong công ty. Các nhân viên cũ mô tả ông là một nhà lãnh đạo được kính trọng và thực tế, người đóng vai trò quan trọng trong việc hướng dẫn công nghệ tiên tiến của công ty khởi nghiệp.

Xu hướng ở Thung lũng Silicon đã thay đổi. Cuộc chạy đua vũ trang AI đã bắt đầu và an ninh đã lùi bước.

Không chỉ OpenAI đang tăng tốc về công nghệ và thương mại hóa mà còn toàn bộ Thung lũng Silicon.

Trước đó đã có tin đồn rằng Meta đã giải tán nhóm Trí tuệ nhân tạo có trách nhiệm (RAI) được thành lập vào năm 2019.

Chủ nhật tuần này, Meta đã xác nhận tin tức: RAI thực sự đã bị giải tán . Hầu hết các thành viên sẽ được chuyển sang nhóm sản phẩm AI của công ty, trong khi những thành viên khác sẽ được chuyển sang các nhóm liên quan đến cơ sở hạ tầng AI.

Meta trả lời:

“Công ty sẽ tiếp tục ưu tiên đầu tư vào phát triển trí tuệ nhân tạo an toàn và có trách nhiệm.”

Meta cũng tuyên bố rằng mặc dù công ty đang chia tách nhóm RAI nhưng các thành viên này sẽ tiếp tục hỗ trợ các công việc liên quan và đảm bảo rằng công ty phát triển và sử dụng trí tuệ nhân tạo một cách có trách nhiệm.

Nhiệm vụ của RAI chủ yếu là xác định các vấn đề trong phương pháp đào tạo AI, bao gồm cả việc các mô hình của công ty đã được đào tạo với thông tin đủ đa dạng để ngăn ngừa sai sót và ảo giác hay chưa. Hệ thống tự động trên nền tảng xã hội Meta đã gây ra một số vấn đề. Biểu tượng cảm xúc AI của WhatsApp có thể tạo ra hình ảnh sai lệch theo một số lời nhắc nhất định và thuật toán của Instagram trước đây đã bị lộ để hiển thị nội dung lạm dụng tình dục trẻ em.

Meta thường nhấn mạnh đến mức độ "có trách nhiệm" trong nghiên cứu và phát triển AI, thậm chí còn thiết lập một trang dành riêng cho mục đích này, liệt kê các "trụ cột trí tuệ nhân tạo có trách nhiệm", bao gồm trách nhiệm giải trình, tính minh bạch, bảo mật, quyền riêng tư, v.v.

Kết quả là bây giờ thậm chí không có bộ phận “có trách nhiệm”.

Trước đó, vào tháng 3, truyền thông đưa tin Microsoft đã giải tán toàn bộ nhóm đánh giá rủi ro AI của mình.

Có thông tin cho biết nhóm này có tên chính thức là Nhóm Đạo đức và Xã hội AI và chức năng chính của nhóm là hướng dẫn sự đổi mới của Microsoft trong AI nhằm tạo ra các kết quả có đạo đức, có trách nhiệm và bền vững. Gần đây, nhóm đã làm việc chăm chỉ để đánh giá những rủi ro có thể xảy ra khi Microsoft tích hợp công nghệ OpenAI vào các sản phẩm của mình.

Nhiều nhân viên cũ và hiện tại của Microsoft cho biết do động thái này, Microsoft sẽ không còn đội ngũ chuyên trách để đảm bảo rằng các nguyên tắc AI của họ được tích hợp chặt chẽ với thiết kế sản phẩm, trong khi công ty hiện đang dẫn đầu xu hướng đưa các công cụ AI trở thành xu hướng chủ đạo. Tuy nhiên, Microsoft vẫn duy trì một nhóm gọi là Văn phòng AI có trách nhiệm (ORA), có nhiệm vụ thiết lập các quy tắc để quản lý các sáng kiến ​​​​AI của công ty. Microsoft cho biết, bất chấp những đợt sa thải gần đây, tổng mức đầu tư vào công việc có trách nhiệm của họ vẫn ngày càng tăng.

Có nhiều dấu hiệu khác nhau cho thấy Thung lũng Silicon, nơi đang theo đuổi dòng tiền nóng, dường như đã lạc lối trong xu hướng AI: áp lực thương mại hóa do các khoản đầu tư lớn mang lại và niềm tin cuồng tín vào tiến bộ công nghệ có thể khiến vấn đề bảo mật AI quan trọng bị nhiều công ty công nghệ bỏ qua.

Liệu Altman có thành lập công ty mới không?

Sự hồi hộp của cuộc chiến cung điện vẫn chưa được giải quyết, nhưng dù kết quả có thế nào, Sam Altman chắc chắn sẽ không lo lắng về việc mình sẽ đi đâu. Ngay cả chính phủ Pháp cũng đã chìa một cành ô liu cho ông.

Wall Street News trước đây đã chỉ ra rằng một số cổ đông lớn, bao gồm cả Microsoft, đang gây áp lực lên ban giám đốc OpenAI để yêu cầu Altman quay trở lại. Ngoài ra còn có các phương tiện truyền thông đưa tin rằng Altman đang xem xét thành lập một công ty mới và tiếp nhận một số nhân viên trước đây của OpenAI.

Sau khi ông bị sa thải vào thứ Sáu, một số nhà đầu tư mạo hiểm, bao gồm Sequoia Capital Alfred Lin và người sáng lập SVAngel Ron Conway, đã đưa ra các tuyên bố công khai ủng hộ Altman. Sequoia và SVAngel đều là những nhà đầu tư lớn vào OpenAI.

Alfred Lin đã viết trên X rằng anh ấy mong muốn được nhìn thấy công ty thay đổi thế giới tiếp theo do Altman và Brockman thành lập.

Altman có mối quan hệ sâu sắc ở Thung lũng Silicon và có mối quan hệ cá nhân thân thiết với các giám đốc điều hành, nhà đầu tư và nhân vật chính trị của gã khổng lồ công nghệ. Ông đã đích thân tuyển dụng nhiều nhà nghiên cứu, kỹ sư quan trọng từ Google và các công ty khác, đặt nền móng cho sự thành công của OpenAI.

Có thể thấy trước rằng dù cuộc đảo chính kết thúc như thế nào, dù tham vọng của Altman có được tiết chế hay không, ông ta nhất định sẽ cẩn thận hơn trước rất nhiều và sẽ không để lại sơ hở nào trong cơ cấu tổ chức để cấp dưới dễ dàng trục xuất ông ta.