Mùa xuân năm 2026, Dario Amodei đột nhiên trở thành kẻ gây phiền toái cho Thung lũng Silicon. Huang Renxun gần như trực tiếp nêu đích danh Amodei, đồng thời chỉ trích gay gắt những CEO tiếp tục dự đoán rằng AI sẽ loại bỏ việc làm trên quy mô lớn do mắc chứng "phức cảm Chúa": Một khi đã trở thành CEO, bạn rất dễ nghĩ rằng mình biết tất cả mọi thứ. Altman cho biết Amodei đang sử dụng "nỗi sợ hãi" để tiếp thị và Yang Likun chỉ nói rằng ông không hiểu cuộc cách mạng công nghệ sẽ ảnh hưởng đến việc làm như thế nào.

Ngay cả giới truyền thông cũng bắt đầu đặt câu hỏi: Tại sao ông chủ AI luôn cảnh báo về ngày tận thế không dừng lại?
Amoudi xúc phạm mọi người, tất nhiên, không phải chỉ vì ý thức đạo đức quá cao và trí tuệ cảm xúc quá thấp.
Điều tinh tế là anh ấy thực sự đã tin vào rủi ro AI từ lâu và thực sự đã biến niềm tin này thành vũ khí thương mại sắc bén nhất của Anthropic.
Công ty này được thành lập sau khi rời OpenAI không còn chỉ là một nhóm nghiên cứu dưới khẩu hiệu "bảo mật AI". Claude Code đã trở thành một trong những sản phẩm mạnh mẽ nhất trên thị trường AI dành cho doanh nghiệp, với doanh thu hàng năm đạt hàng tỷ USD. Điều thậm chí còn cường điệu hơn nữa là, theo Business Insider, định giá của Anthropic trên thị trường thứ cấp tư nhân đã vượt quá 1 nghìn tỷ USD.
Khi một người đứng trên cao đạo đức và nhắc nhở mọi người chậm lại, đồng thời đặt cược giữa sân và số tiền đặt cược ngày càng lớn thì người đó khó có thể không trở thành mục tiêu.
01
T AGPH70Kẻ thù công khai
Amoudi đang trở thành kẻ thù mạnh nhất người khó chịu trong ngành AI.
Người nổ súng muộn nhất là Huang Renxun.
Trong một podcast, Huang Renxun đã gọi điện cho các CEO công nghệ, những người thường xuyên dự đoán rằng AI sẽ gây ra tình trạng thất nghiệp quy mô lớn và thậm chí mang đến nguy cơ loài người tuyệt chủng do mắc phải "phức hợp Chúa".
Ý tưởng chung của ông là một khi đã ngồi vào vị trí CEO, mọi người rất dễ bắt đầu nghĩ rằng họ biết tất cả mọi thứ. Nhưng cuộc thảo luận công khai về AI nên quay trở lại vấn đề thực tế, thay vì bị dẫn dắt bởi những câu chuyện phóng đại về ngày tận thế.

Những lời này tuy không được nhắc đến đích danh nhưng thật khó để không nghĩ đến Amoudi.
Và đây không phải là lần đầu tiên Huang Renxun bị kích động bởi câu chuyện về rủi ro AI của Amodei.
Amoudi luôn ủng hộ các biện pháp kiểm soát xuất khẩu chip chặt chẽ hơn và thậm chí còn viết một bài báo dài kêu gọi những hạn chế mạnh mẽ hơn. Tại Diễn đàn Davos năm nay, ông so sánh việc xuất khẩu chip AI tiên tiến sang Trung Quốc với việc “bán vũ khí hạt nhân”.
Tất nhiên Jen-Hsun Huang sẽ không chấp nhận tuyên bố này.
Trong một podcast khác, khi Huang được hỏi về sự tương tự này, anh ấy đã trực tiếp nói rằng nó thật "nực cười". Ông tin rằng việc so sánh chip AI với vũ khí hạt nhân là một sự so sánh kém cỏi và phi logic.

Nếu đòn phản công của Jen-Hsun Huang xuất phát từ xung đột lợi ích trực tiếp giữa NVIDIA và Anthropic về chính sách chip, thì cuộc tấn công của OpenAI giống một cuộc đối đầu trực diện giữa các đối thủ cũ hơn.
Trong một cuộc trò chuyện trên podcast, Ultraman cho biết Anthropic đang sử dụng "nỗi sợ hãi" để tiếp thị.
Anh ấy đã sử dụng một phép ẩn dụ khá gay gắt: Giống như ai đó nói rằng, chúng tôi đã chế tạo một quả bom và sẽ sớm thả nó xuống đầu bạn, sau đó chúng tôi có thể bán cho bạn một hầm tránh bom với giá 100 triệu USD.

Câu này rõ ràng ám chỉ Claude Mythos Preview vừa được Anthropic phát hành. Theo tuyên bố riêng của Anthropic, mô hình an ninh mạng này quá mạnh mẽ và sẽ không được mở cửa cho công chúng trong thời điểm hiện tại. Thay vào đó, nó sẽ được đưa vào dự án mang tên “Wings of Glass” để thực hiện công tác phòng thủ an ninh cho các tổ chức đối tác.
Đây không phải là “cuộc tấn công” duy nhất từ OpenAI. Vào ngày 13 tháng 4, The Verge tiết lộ một bản ghi nhớ nội bộ dài bốn trang được Denise Dresser, giám đốc doanh thu của OpenAI gửi cho nhân viên. Chủ đề của bản ghi nhớ là làm thế nào để giành được thị trường AI dành cho doanh nghiệp, nhưng có một phần dành riêng để thảo luận về Anthropic, gần như tiêu diệt đối thủ từng điểm một.

Nó viết rằng câu chuyện của Anthropic được xây dựng dựa trên “nỗi sợ hãi, những hạn chế và quan niệm rằng một số ít người ưu tú nên kiểm soát AI”.
Cô cũng nói rằng Anthropic phụ thuộc quá nhiều vào các kịch bản mã và không có đủ nguồn dự trữ năng lượng tính toán, đồng thời đặt câu hỏi về báo cáo doanh thu hàng năm của mình, đồng thời nói rằng Anthropic đã bao gồm việc chia sẻ doanh thu với Amazon và Google trên cơ sở tổng thể, dẫn đến doanh thu hàng năm là 30 tỷ USD bị đánh giá quá cao khoảng 8 tỷ USD.
Amodei và Ultraman là kẻ thù cũ, còn OpenAI và Anthropic là đối thủ cạnh tranh trực tiếp; Hoạt động kinh doanh chip của Huang Renxun cũng bị ảnh hưởng trực tiếp bởi các đề xuất chính sách của Amodei. Cuộc phản công của họ dường như đã đi đúng hướng.
Nhưng mọi chuyện vẫn chưa kết thúc.
Yann LeCun cũng công khai chỉ trích Amoudi về X. Lần này, tranh cãi nảy sinh từ tác động của AI đối với việc làm.
Vào năm 2025, Amodei cho biết trong một cuộc phỏng vấn với Axios rằng AI có thể loại bỏ một nửa số công việc nhân viên văn phòng cấp độ đầu vào trong vòng 1 đến 5 năm tới và đẩy tỷ lệ thất nghiệp lên 10% đến 20%. Ông cũng nói rằng các công ty AI và cơ quan quản lý không thể tiếp tục phủ đường hoặc hạ thấp tác động sắp tới.
Đáp lại nhận định của Amodei về việc làm, Yang Likun nói trên X: “Dario đã sai” và “anh ấy không biết gì về cách mạng công nghệ ảnh hưởng đến thị trường lao động”. Ông thậm chí còn cho rằng những câu hỏi như vậy nên được các nhà kinh tế lắng nghe hơn là bất kỳ ai trong giới AI, kể cả chính Yang Likun.

Ngay cả dư luận cũng bắt đầu có chút nghi ngờ.
Chỉ là một ví dụ về bình luận từ các phương tiện truyền thông nổi tiếng: The Times đặt câu hỏi tại sao gã khổng lồ AI từng cảnh báo về ngày tận thế không tự mình dừng lại. TechCrunch chỉ ra rằng Anthropic đã hạn chế việc mở Mythos để bảo vệ an ninh Internet, nhưng việc mở có chọn lọc này cũng có thể giúp nó khóa các khách hàng doanh nghiệp lớn và ngăn các công ty nhỏ sao chép khả năng thông qua quá trình chưng cất, từ đó bảo vệ lợi ích kinh doanh của chính họ.

Rõ ràng là Amoudi dẫn đầu Anthropic và chiếm lĩnh một loại nền tảng đạo đức nào đó. Nhưng càng đứng trên cao, bạn càng trở thành mục tiêu.
Vấn đề đặt ra là phải chăng chỉ vì Amoudi quá nguyên tắc, quá khăng khăng “bảo mật” và không ngần ngại xúc phạm người khác mà đến lượt mình lại bị công kích?
Amodei càng cố gắng trở thành "người thiết lập đạo đức", anh ta càng có một nghịch lý đạo đức rõ ràng - anh ta đứng giữa sân, đặt cược đồng thời nhắc nhở mọi người rằng trò chơi này có thể độc hại.
Thật khó xử.
02
" "Vua bảo mật" ra đời như thế nào
Trong trong bản ghi nhớ, Giám đốc doanh thu của OpenAI, Denise đã đề cập đến một từ: “ưu tú”.
Đây thực sự là một trong những nhãn hiệu bắt mắt nhất trên Amoudi. Claude, nhấn mạnh rằng nó không được phép sử dụng để giám sát quy mô lớn, cũng như không được phép sử dụng trong vũ khí tự động hoàn toàn mà không có sự tham gia của con người trong việc ra quyết định.
Để hiểu vị vua an ninh này đến từ đâu, chúng ta vẫn phải nhìn lại nguồn gốc của ông.
Amoudi đã ra đời sinh ra ở San Francisco vào năm 1983. Cha anh, một thợ da người Ý đến từ Tuscany, mắc bệnh mãn tính và qua đời khi Amodei còn nhỏ; mẹ anh, một người Mỹ gốc Do Thái sinh ra ở Chicago, làm quản lý dự án thư viện. Đội tuyển Olympic Vật lý Hoa Kỳ năm 2000. Sau khi vào đại học, anh theo học tại Viện Công nghệ California, một trong những trường khoa học và kỹ thuật hàng đầu ở Hoa Kỳ, sau đó chuyển đến Stanford để lấy bằng đại học về vật lý, và cuối cùng đến Princeton để hoàn thành bằng Tiến sĩ về lý sinh. cũng xác định quan điểm phức tạp của anh ấy

Năm 2014, Ng tuyển Amodei vào phòng thí nghiệm trí tuệ nhân tạo của Baidu ở Thung lũng Silicon để tham gia nghiên cứu hệ thống nhận dạng giọng nói. Sau đó, ông trở thành một trong những tác giả của bài báo Deep Speech 2. Hệ thống này tập trung vào nhận dạng giọng nói từ đầu đến cuối, bao gồm tiếng Anh và tiếng Quan Thoại. Nó cũng cố gắng sử dụng dữ liệu quy mô lớn hơn, sức mạnh tính toán và đào tạo để làm lại quy trình nhận dạng giọng nói truyền thống. Chính trong thời gian này, Amodei bắt đầu phát triển bản năng ban đầu của mình về quy mô. Sau đó, anh nhớ lại trong một cuộc phỏng vấn rằng anh thấy rằng khi mô hình lớn hơn, dữ liệu nhiều hơn và thời gian đào tạo dài hơn thì kết quả sẽ tiếp tục tốt hơn. Đối với anh, niềm tin Scaling sau này được truyền qua GPT và thế hệ mô hình lớn của Claude đã đặt nền móng cho khả năng nhận dạng giọng nói của Baidu.
Daniela Amodei cũng đóng một vai trò quan trọng. Cô cũng rời OpenAI và hai anh em đồng sáng lập Anthropic.
Anh chị em tạo thành cấu trúc lõi kép. Amoudi giống như một người đại diện cho các dòng kỹ thuật và tường thuật an toàn, trong khi Daniela chịu trách nhiệm nhiều hơn về hoạt động của công ty, xây dựng tổ chức và xúc tiến kinh doanh. Khí chất độc đáo của Anthropic ngày nay – một mặt trông giống như một tổ chức nghiên cứu bảo mật và mặt khác là một công ty AI với nguồn tài chính nhanh chóng và khả năng mở rộng nhanh chóng – phần lớn đến từ sự kết hợp này.

Mối quan hệ gia đình này cũng mang lại cảm giác ổn định đặc biệt cho Anthropic, khiến công ty giống như một nhóm nhỏ tách ra khỏi tổ chức cũ, với bản sắc mạnh mẽ, nghĩ rằng họ muốn làm AI theo một cách khác.
Vào cuối năm 2020, OpenAI đã đưa ra một bản cập nhật tổ chức rất lịch sự, thông báo rằng Phó Chủ tịch Nghiên cứu Amodei khi đó sẽ rời đi. Bài báo cảm ơn những đóng góp của ông trong 5 năm qua, đề cập đến việc ông tham gia GPT-2, GPT-3 và cùng đưa ra hướng nghiên cứu với Ilya Sutskever và những người khác.
Điều tinh tế nhất là OpenAI cũng viết rằng Amoudi và một số đồng nghiệp có kế hoạch bắt đầu một dự án mới "có thể tập trung ít hơn vào phát triển sản phẩm và tập trung nhiều hơn vào nghiên cứu". Hầu hết các trang còn lại đều được sử dụng để thể hiện quyết tâm của OpenAI trong lĩnh vực bảo mật.

Nhiều năm sau, khi mâu thuẫn giữa Anthropic và OpenAI được công khai, người ta nhìn lại cuộc "chia tay" thân thiện năm đó. Không khó để nhận ra rằng hai bên đã có những khác biệt về cách ưu tiên phát triển năng lực AI và các ranh giới an ninh.
Vài tháng sau, Anthropic được thành lập. Kể từ đó, vấn đề bảo mật đã dần chuyển từ quan điểm cá nhân của Amodei thành xương sống của công ty.
Nó có RSP, tức là "Chính sách mở rộng có trách nhiệm". Nó sử dụng các cấp độ ASL để đặt ra các yêu cầu rủi ro cho các mô hình ở các giai đoạn năng lực khác nhau, hơi giống phiên bản AI của các cấp độ an toàn sinh học; nó hướng dẫn hành vi kiểu mẫu thông qua một bộ nguyên tắc “hiến pháp”; nó cũng tiếp tục đầu tư vào nghiên cứu khả năng diễn giải và cố gắng mở hộp đen mô hình.
Amodei chắc chắn đang lợi dụng “bảo mật”, nhưng chỉ khi anh ấy cũng thực sự tin tưởng vào bảo mật lâu dài. Từ việc rời OpenAI, đến thành lập Anthropic, đến RSP, "Hiến pháp" AI, khả năng giải thích, phân loại rủi ro mô hình và ranh giới hợp đồng quốc phòng, hành vi của anh ấy khá nhất quán trong thời gian dài.
Đây cũng là điểm Amoudi phức tạp.
Anh ấy có lòng tự tin mạnh mẽ của giới thượng lưu - Tôi đã thấy rủi ro lớn hơn nên có tư cách nhắc nhở mọi người chậm rãi hơn, nghiêm khắc hơn và sợ hãi hơn. Nhưng chính sự tự tin đó lại khiến anh trông có vẻ trịch thượng.
Và khi Amoudi bắt đầu điều hành một công ty kinh doanh, khi "đạo đức" gặp gỡ kinh doanh, sự cân bằng mong manh càng trở nên khó duy trì hơn.
03
Khi “An toàn” trở thành mục tiêu chính của công ty line
“An toàn” vừa là hoạt động kinh doanh vừa là cơ chế sàng lọc của Anthropic.
Anthropic đặc biệt ở chỗ đây là một tổ chức mới được thành lập bởi một nhóm người đã rời OpenAI ngay từ đầu. Lý do rời đi bao gồm các lộ trình kỹ thuật, khái niệm bảo mật và những bất đồng về “ai sẽ xác định tương lai của AI”.
Vì vậy, văn hóa đặc biệt quan trọng trong Anthropic, giống như một hệ điều hành hơn.

Amoudi là một nhà thiết kế tổ chức với khí chất của một nhà nghiên cứu. Ông từng nói trong một cuộc phỏng vấn rằng khoảng một phần ba, thậm chí 40% thời gian của ông được dành để đảm bảo rằng nền văn hóa của Anthropic là tốt đẹp.
Anthropic bề ngoài luôn nói về sự thận trọng, kiềm chế và ranh giới, nhưng bên trong thì đó không phải là một nền văn hóa thờ ơ. Ngược lại, Anthropic có kênh Slack tương tự như sổ ghi chép công cộng cá nhân, nơi nhân viên viết ra ý tưởng của riêng mình, tiến độ công việc và thậm chí tranh luận trực tiếp về Amoudi.
Có thể hình dung rằng dù là ngưỡng đầu vào của Anthropic hay sự hình thành và va chạm không ngừng của văn hóa nội bộ đều đã hình thành một cơ chế sàng lọc nhân tài nhất định.
Trong năm qua, Meta đã vẫy sổ séc của mình khắp nơi để tuyển dụng người nhằm củng cố đội ngũ AI của mình. Cái giá của nhân tài trong ngành AI đã được nâng lên mức quá đáng, các nhà nghiên cứu và kỹ sư hàng đầu gần như trở thành siêu sao trên thị trường tự do. Đối mặt với kiểu săn trộm này, một số công ty theo bản năng “tuân theo giá cả”, hoặc ít nhất tuyên bố rõ ràng rằng họ muốn tăng lương nhân viên và giữ con người lên hàng đầu.

Amodei đã không làm điều đó. Anh ấy đã công khai giải thích rằng Anthropic sẽ không ngay lập tức phá vỡ các nguyên tắc trả lương của mình chỉ vì một công ty bên ngoài đưa ra lời đề nghị cao ngất ngưởng cho ai đó. Anh ấy nói rằng nếu Zuckerberg ngẫu nhiên bắn trúng tên ai đó như phi tiêu, điều đó không có nghĩa là người đó sẽ nhận được gấp 10 lần so với đồng nghiệp tài năng không kém cạnh mình.
Điều thú vị hơn nữa là Amodei nói rằng một số nhân viên của Anthropic thậm chí không muốn nói chuyện với Zuckerberg khi đối mặt với sự săn trộm của Meta. Chắc chắn có yếu tố khoe khoang trong câu này. Nhưng điều nó thực sự muốn truyền tải là sự “đồng thuận” giữa các nhân viên Anthropic tồn tại và rất mạnh mẽ.
Amodei phải thuyết phục nhân viên rằng Anthropic không phải là một công ty AI khác chỉ muốn chạy nhanh hơn; đồng thời anh phải đưa công ty này chạy thật nhanh. Nếu không, câu chuyện an toàn dù có đẹp đẽ đến đâu cũng sẽ chỉ trở thành một bình luận đạo đức bên lề trò chơi.
"An toàn" đã đạt được những kết quả tuyệt vời với tư cách là một doanh nghiệp.
Anthropic đã thu hút một cách tự nhiên những khách hàng có yêu cầu cao hơn về độ tin cậy và khả năng kiểm soát ngay từ đầu. Khi Claude ra mắt lần đầu tiên, nó nhấn mạnh đến độ tin cậy, khả năng dự đoán và khả năng khởi động. Các đối tác ban đầu của nó là các công cụ sản xuất kiến thức, tìm kiếm, giáo dục và quy trình làm việc như Notion, Quora, DuckDuckGo và Juni Learning.
Anthropic không bán “mẫu rẻ nhất”. Doanh nghiệp, chính phủ, mã, tài chính, y tế, giáo dục, khu vực công – những khách hàng này quan tâm nhiều hơn đến sự ổn định, tuân thủ, ranh giới bảo mật và trách nhiệm pháp lý lâu dài. Qua mức giá cũng có thể thấy rằng Claude không phải là tuyến đường giá rẻ. Giá của Claude Opus 4.7 là 5 USD trên một triệu token đầu vào và 25 USD trên một triệu đầu ra; Claude Sonnet 4.6 có giá đầu vào là 3 USD và đầu ra là 15 USD. Để so sánh, Grok 4.20 của xAI có đầu vào là 2 USD và đầu ra là 6 USD, rõ ràng là triệt để hơn; GPT-5.5 của OpenAI có đầu vào là 5 USD và đầu ra là 30 USD, nằm trong cùng tầm giá với Claude Opus.

Reuters trước đây cũng báo cáo rằng Anthropic có hơn 300.000 khách hàng thương mại và doanh nghiệp, đóng góp khoảng 80% doanh thu. Khách hàng doanh nghiệp thanh toán dựa trên mức sử dụng, với khả năng giữ chân ổn định hơn và có nhiều khả năng mở rộng hơn. Một khi họ nhập mã, quy trình văn phòng, nền tảng đám mây và hệ thống chính phủ, thu nhập sẽ không thể so sánh được với các sản phẩm đăng ký thông thường.
Ngược lại, OpenAI đã gây ồn ào lớn nhất ở phía C với ChatGPT và nó thực sự đã giáo dục người dùng đại chúng ở quy mô chưa từng có; nhưng có nhiều người dùng bên C không có nghĩa là cơ cấu doanh thu là tốt nhất.
Tuyên bố mới nhất của OpenAI là doanh thu doanh nghiệp đã vượt quá 40% tổng doanh thu và hy vọng sẽ bắt kịp phía người tiêu dùng vào cuối năm 2026. Nói cách khác, ngay cả OpenAI cũng đang nỗ lực để thâm nhập thị trường doanh nghiệp.

Sự hợp tác của Anthropic với Bộ Chiến tranh Hoa Kỳ DoW là một ví dụ điển hình. Trong một thời gian dài, Anthropic là công ty AI duy nhất mà DoW hợp tác trong “lĩnh vực bí mật”. Claude được sử dụng cho các nhiệm vụ như phân tích thông tin tình báo, lập mô hình và mô phỏng, lập kế hoạch chiến đấu và hoạt động mạng.
Theo dòng suy nghĩ này, nhìn lại “cuộc đấu tranh” khốc liệt giữa Anthropic và DoW, nó cho thấy khả năng của Amodei trong việc coi bảo mật như một công việc kinh doanh—bằng cách nhấn mạnh điểm mấu chốt là “giám sát hàng loạt” và “vũ khí tự động”, ngay cả khi anh ấy mất đi sự hợp tác với DoW, khả năng hiển thị trước công chúng và “độ tin cậy” của Anthropic đã được nâng lên một tầm cao hơn, và nó đã đạt được sự ưu ái chưa từng có trên thị trường vốn.
Doanh thu hàng năm của Anthropic đã tăng từ 9 tỷ USD vào cuối năm 2025 lên 30 tỷ USD vào tháng 4 năm 2026; vào tháng 2 năm nay, công ty đã hoàn thành khoản tài trợ 30 tỷ USD với mức định giá 380 tỷ USD và sau đó Google lên kế hoạch đầu tư tới 40 tỷ USD vào đó. Một số báo cáo chỉ ra rằng giá trị của nó trên thị trường thứ cấp đã đạt 1,1 nghìn tỷ USD.
Bảo mật nghe có vẻ giống như một hạn chế, nhưng trong Anthropic, nó trở thành ngôn ngữ kinh doanh cấp cao hơn.
Nhưng kỹ thuật quản lý này chắc chắn có mặt nguy hiểm của nó.
Khi một công ty biến "bảo mật" thành niềm tin của tổ chức, công ty đó sẽ tự nhiên có được cảm giác vượt trội về mặt đạo đức và sẽ dễ dàng miêu tả đối thủ cạnh tranh là những người vô trách nhiệm và gói các lựa chọn kinh doanh thành những lựa chọn giá trị.
Đây là lý do tại sao Anthropic càng thành công thì Amoudi càng khó chịu.
04
Hai mặt của "bảo mật"T AGPH49
Sẽ hơi ngây thơ nếu làm như vậy chỉ coi Amoudi là một “con người khoa học kỹ thuật”, có lý tưởng và điểm mấu chốt nhưng lại có trí tuệ cảm xúc thấp nên luôn nói sự thật và xúc phạm người khác.
Tạp chí Phố Wall từng có bài viết nhìn lại mối thù 10 năm giữa Amodei và Ultraman.
Câu chuyện của Amodei tại OpenAI không thể được giải thích bằng “sự khác biệt trong các khái niệm bảo mật”.

Năm 2018, sau khi Musk rút lui, Amodei đồng ý giữ nguyên với điều kiện Brockman (một trong những người đồng sáng lập) và Sutskowe không nắm quyền - lần đầu tiên ông nói về việc phân phối điện chứ không phải các tuyến kỹ thuật.
Sau đó, trong dự án mô hình trọng điểm, anh và chị gái Daniela đã hợp sức để chặn Brockman muốn tham gia. Một trong những lý do là một nhà nghiên cứu cốt lõi nào đó “không muốn làm việc với anh ta”. Nhà nghiên cứu sau đó mô tả mình bị các giám đốc điều hành cấp cao sử dụng như một "vũ khí ủy nhiệm", điều này cho thấy Amodei rất biết cách sử dụng con người để thành lập liên minh.
Khi GPT-2/3 trở nên phổ biến, anh ấy ngày càng trở nên nhạy cảm hơn với việc ghi công và lộ thông tin tín dụng: anh ấy không hài lòng với việc Brockman "đánh cắp ánh đèn sân khấu" trong podcast và anh ấy trở nên tức giận khi biết rằng Altman và Brockman sẽ gặp Obama mà không có anh ấy.
Năm sau, anh xin được thăng chức phó chủ tịch nghiên cứu. Altman đồng ý và đưa vào email của ban giám đốc "Amody hứa sẽ không coi thường những dự án mà anh ấy không chấp thuận", giống như một điều khoản ngừng bắn.
Những chi tiết này cho thấy an ninh là tín ngưỡng của Amoudi và là vũ khí tổ chức sắc bén. Anh ta nói về các điều kiện, đấu tranh cho các dự án và đấu tranh cho quyền được nói, đồng thời sử dụng ngôn ngữ "rủi ro" để xác định ai có thể ở lại cốt lõi.
Cuối cùng rời OpenAI để thành lập Anthropic. Đó không phải là một sự ra đi lý tưởng mà là một bước đi của chiến trường sau khi cuộc tranh giành quyền lực nội bộ thất bại.
Khi ông nắm quyền điều hành Anthropic, mọi thứ càng trở nên phức tạp hơn. Anthropic không còn là nơi thử nghiệm lý tưởng trong phòng thí nghiệm nghiên cứu mà là một chiến hạm thương mại đang phát triển nhanh chóng. Tại thời điểm này, sự an toàn đã thay đổi từ nguyên tắc thuần túy sang điểm bán sản phẩm vững chắc.
Anthropic càng nhấn mạnh đến những rủi ro của AI một cách nổi bật thì nó càng nhấn mạnh sự cần thiết phải tồn tại của chính nó; càng chỉ trích những người khác vì chạy quá nhanh, nó càng có thể tự coi mình là đối tác đáng tin cậy nhất của các doanh nghiệp, chính phủ và cơ quan quản lý.
Câu chuyện của nó đương nhiên mang tính so sánh về mặt đạo đức. Chọn Claude không chỉ là chọn hình mẫu mà còn là chọn con đường có trách nhiệm và dễ kiểm soát hơn.
Đối với các đối thủ cạnh tranh, điều này rất khó chịu. Bạn chỉ bán sản phẩm và thuận tiện khiến người khác trông giống như những tay cờ bạc vô trách nhiệm. An ninh đã trở thành một con hào để tạo sự khác biệt và một công cụ tiếp thị. Khách hàng doanh nghiệp sẵn sàng trả nhiều tiền hơn để được "yên tâm", và các cơ quan chính phủ có nhiều khả năng giao các dự án nhạy cảm cho công ty "an toàn nhất".
Trong quá trình này, an ninh cũng đã trở thành một con bài thương lượng chính trị.
Axios báo cáo rằng trong quý đầu tiên của năm 2026, chi phí vận động hành lang liên bang của Anthropic đạt 1,6 triệu USD, vượt quá 1 triệu USD của OpenAI và lập kỷ lục của riêng mình; trước đó họ đã công bố khoản đầu tư 20 triệu USD vào một tổ chức vận động lưỡng đảng tập trung vào tính minh bạch và các biện pháp bảo vệ an toàn của AI, đồng thời có kế hoạch mở rộng nhóm chính sách của mình và thành lập văn phòng dài hạn tại Washington.
Nói một cách thẳng thắn, Amodei đang cạnh tranh về luật chơi trong kỷ nguyên AI.
Sự phức tạp của Amodei nằm ở chỗ hai điều này có thể đồng thời đúng: anh ấy tin vào bảo mật AI và anh ấy thực sự đã biến bảo mật AI thành vũ khí thương mại sắc bén nhất của Anthropic. An ninh vừa là tôn giáo vừa là đòn bẩy quyền lực của anh ta.
Các nguyên tắc và lợi ích không chỉ đơn giản là đối lập nhau mà còn nuôi dưỡng và củng cố lẫn nhau. Chính sự đan xen giữa sự thật và sự giả dối đã khiến ông vừa được ca tụng là “vua chứng khoán” vừa được một số người coi là một nhà kinh doanh khôn ngoan.
Nhân loại Bạn càng giải thích rõ ràng về rủi ro thì bạn càng có nhiều cơ hội để xác định rủi ro; Bạn càng có nhiều cơ hội để xác định rủi ro, bạn càng có thể đặt mình vào trung tâm các quy tắc của kỷ nguyên AI.
Đây là “ma thuật an toàn” của Amoudi, và “kẻ thù chung” là một tác dụng phụ cần thiết của việc chơi phép thuật.
Có lẽ anh ấy thích nó.