Vào ngày 30 tháng 3, một bình luận về một video được chuyển tiếp trên nền tảng X đã bùng nổ. Người dùng @malmesburyman đã tweet lại đoạn clip phỏng vấn với Giám đốc điều hành Anthropic Dario Amodei, với chú thích: Bạn thực sự có thể cảm nhận được từ anh chàng này tại sao Truman lại thấy Oppenheimer thật kinh tởm.

Trong video, Amodei đang lặp lại những lập luận quen thuộc của mình:
Mô hình của chúng tôi đã tiến rất gần đến trình độ trí tuệ của con người, nhưng xã hội lại thiếu nhận thức rộng rãi về tương lai sắp tới rủi ro.

Nhận xét đã gây chia rẽ. Những người ủng hộ tin rằng Amodei đang giả làm thánh trong khi phát triển AI mạnh mẽ, giống như Oppenheimer đã nói "bàn tay của anh ta vấy máu" sau khi chế tạo bom nguyên tử;
Những người phản đối tin rằng sự so sánh này đơn giản là không thể chấp nhận được. Oppenheimer chỉ bày tỏ cảm giác tội lỗi sau khi quả bom nguyên tử đã giết chết hàng trăm nghìn người, trong khi Amodei cảnh báo về những rủi ro trước khi công nghệ này gây ra thảm họa.
Nhưng câu hỏi sâu hơn là: Tại sao tất cả các nhà lãnh đạo phát triển AI tiên tiến đều đặt câu hỏi về động cơ của họ, bất kể họ làm gì?
Vấn đề nan giải của Amodei: Bám sát lằn ranh đỏ và trở thành mối đe dọa chuỗi cung ứng?
Đây không phải là lần đầu tiên Amodei bị mắng vì cảnh báo về rủi ro của AI.
Vào tháng 2 năm nay, ông đã bác bỏ điều khoản “tất cả các mục đích sử dụng hợp pháp” của Lầu Năm Góc, nhấn mạnh vào hai ranh giới đỏ của Anthropic.

Do đó, Bộ trưởng Quốc phòng Pete Hegseth đã tuyên bố rằng Anthropic được liệt vào danh sách "mối đe dọa an ninh chuỗi cung ứng" và Trump đã ra lệnh cho tất cả các cơ quan liên bang vô hiệu hóa Claude trong vòng 6 tháng.
Nhãn này thường được sử dụng để chống lại các đối thủ nước ngoài, nhưng nó chưa bao giờ được sử dụng cho một công ty Hoa Kỳ.
Amodei tuyên bố thẳng thừng trong một bản ghi nhớ nội bộ bị rò rỉ rằng lý do thực sự mà Lầu Năm Góc và chính quyền Trump không thích Anthropic là:
Chúng tôi đã không quyên góp tiền cho Trump, chúng tôi không khen ngợi Trump một cách độc tài, chúng tôi ủng hộ quy định về AI (đi ngược lại chương trình nghị sự của họ), chúng tôi đã nói chuyện trung thực về các vấn đề chính sách AI (như thay thế công việc) và chúng tôi thực sự bị mắc kẹt vào ranh giới đỏ thay vì thông đồng với họ để dàn dựng “bộ phim an ninh”.
Một tuần sau, Amodei xin lỗi về giọng điệu của bản ghi nhớ, nói rằng "nó không thể hiện quan điểm mà tôi đã cân nhắc."
Bạn đứng lên bảo vệ nguyên tắc của mình và bị đối xử như kẻ thù.
Nếu bạn cảnh báo rủi ro và từ chối hợp tác, bạn sẽ bị nghi ngờ là đang tìm kiếm quyền lực hoặc đạt được vị thế đạo đức cao.
Tình thế tiến thoái lưỡng nan của Altman: Ủng hộ vạch đỏ, nhưng không làm như vậy. Bị mắng vì chủ nghĩa cơ hội
Nếu Amodei bị đàn áp vì tuân thủ ranh giới đỏ, Altman đã nói với chúng tôi rằng ngay cả khi bạn ủng hộ nó, bạn cũng sẽ bị mắng
TAG. PH101Vào ngày 28 tháng 2, chỉ vài giờ sau khi cuộc đàm phán của Anthropic với Lầu Năm Góc đổ vỡ, Altman thông báo rằng OpenAI đã đạt được thỏa thuận với Bộ Quốc phòng. Ông tuyên bố rằng OpenAI đã đạt được thỏa thuận với Bộ Quốc phòng. AI, giống như Anthropic, cấm giám sát hàng loạt và vũ khí tự động hoàn toàn
Thế giới bên ngoài bùng nổ, cáo buộc OpenAI làm suy yếu vị thế của Anthropic vào thời điểm quan trọng:
Nếu các công ty này thực sự nghiêm túc với các cam kết an ninh của mình, lẽ ra họ nên đoàn kết để đối đầu với Lầu Năm Góc thay vì để chính phủ sử dụng lẫn nhau làm đối thủ cạnh tranh trên thị trường.
Điều đáng xấu hổ hơn nữa là nhân viên của OpenAI vừa ký một bức thư ngỏ vào tuần trước ủng hộ Anthropic và phản đối Lầu Năm Góc TAG. PH114
Bây giờ sếp đã ký hợp đồng, nhân viên cảm thấy bị phản bội
Altman thừa nhận vào thứ Hai:
Chúng ta thực sự không nên vội vàng công bố thỏa thuận này vào thứ Sáu. Chúng tôi chân thành muốn giảm căng thẳng và tránh một kết quả tồi tệ hơn, nhưng điều đó có vẻ mang tính cơ hội và vội vàng.
Nhưng ngay cả khi OpenAI thay đổi các điều khoản của hợp đồng, các chuyên gia pháp lý và nhà quan sát vẫn đặt câu hỏi liệu các hạn chế có mang tính ràng buộc về cơ bản hay không.
Altman nói với các nhân viên tại một cuộc họp nội bộ rằng Lầu Năm Góc đã nói rõ rằng OpenAI "không thể tham gia vào việc ra quyết định chiến đấu" và công ty chỉ có thể cung cấp lời khuyên về chuyên môn kỹ thuật chứ không thể bày tỏ quan điểm của mình về chất lượng của các hoạt động quân sự.
Hassabis' Dilemma: Mười năm sau, thế giới đã thay đổi
Thời gian thay đổi mọi thứ, kể cả những cam kết của bạn.
Khi Google mua lại DeepMind vào năm 2014, Google đã hứa rằng công nghệ của DeepMind sẽ không bao giờ được sử dụng cho mục đích quân sự hoặc vũ khí.
Năm 2018, những người đồng sáng lập Hassabis và DeepMind đã ký một bức thư ngỏ kêu gọi thiết lập “các chuẩn mực, quy định và luật pháp quốc tế mạnh mẽ chống lại vũ khí tự động gây chết người”.
Nhưng đến năm 2025, Google đã sửa đổi các nguyên tắc AI của mình và xóa cam kết không phát triển công nghệ quân sự.
Giờ đây công nghệ của DeepMind được tích hợp vào phần mềm Google Cloud và được bán cho quân đội nhiều quốc gia, bao gồm cả Hoa Kỳ và Israel.

TIME đối mặt với Kaida: "Bạn đã thỏa hiệp để đạt được mục tiêu của AGI chưa?" Câu trả lời của Hassabis là:
Tôi không nghĩ vậy. Gần đây, chúng tôi đã cập nhật một số chính sách của mình, một phần là để ứng phó với sự gia tăng đáng kể về tình trạng bất ổn địa chính trị toàn cầu.
Thật không may, thế giới đã trở thành một nơi nguy hiểm hơn. Tôi nghĩ chúng ta không còn có thể coi như đương nhiên rằng các giá trị dân chủ sẽ chiến thắng – đơn giản là điều đó không rõ ràng. Vì vậy tôi nghĩ chúng ta cần phải làm việc với chính phủ.
Vào tháng 5 năm nay, gần 200 nhân viên DeepMind đã ký một lá thư nội bộ kêu gọi công ty từ bỏ hợp đồng quân sự.
Tại cuộc họp nội bộ vào tháng 6, COO Lila Ibrahim đã trả lời rằng DeepMind sẽ không thiết kế hoặc triển khai bất kỳ ứng dụng AI nào cho vũ khí hoặc giám sát hàng loạt và khách hàng của Google Cloud bị ràng buộc bởi các điều khoản.

Tình thế tiến thoái lưỡng nan không có giải pháp, nhưng hãy thận trọng Lời buộc tội không thể dừng lại
Amodei, Altman và Hassabis, ba người họ đã đi ba con đường khác nhau nhưng đều bị mắng.
Bạn có tuân thủ vạch đỏ không? Bạn đang tìm kiếm nền tảng đạo đức cao và lợi thế pháp lý.
Thỏa hiệp và hợp tác? Bạn là một kẻ đạo đức giả và không kết hợp lời nói với hành động của mình.
Thay đổi lập trường của bạn? Bạn đang bán linh hồn của mình để lấy tiền.
Khi bạn vừa là nhà phát triển vừa là người ủng hộ bảo mật, mọi cảnh báo bạn đưa ra sẽ được hiểu là "bạn đang giúp đỡ công ty của chính mình".
Những dự đoán này có thể đúng hoặc có thể sai.
Nhưng có một điều chắc chắn. Bất kể Amodei, Altman hay Hassabis, bất kể họ nói hay làm gì, một số người sẽ đặt câu hỏi về động cơ của họ.
Nhưng có lẽ, việc tiếp tục cảnh báo trong lúc tranh cãi vẫn là một lựa chọn có trách nhiệm hơn là chờ đợi thảm họa xảy ra rồi nói "Tôi đã cảnh báo bạn".