'Tôi cảm thấy rất không thoải mái': Giám đốc điều hành Anthropic cảnh báo rằng một nhóm các nhà lãnh đạo AI, bao gồm chính ông ấy, không nên chịu trách nhiệm về tương lai của công nghệ này
CEO Anthropic Dario Amodei không nghĩ rằng anh ấy nên là người quyết định các giới hạn xung quanh AI.
Video đề xuất
Trong một cuộc phỏng vấn với Anderson Cooper trên CBS News’ 60 Minutes phát sóng vào tháng 11 năm 2025, CEO cho biết AI nên được quản lý chặt chẽ hơn, với ít quyết định về tương lai của công nghệ này hơn được để cho các lãnh đạo của các tập đoàn công nghệ lớn quyết định.
“Tôi nghĩ tôi cảm thấy rất không thoải mái khi những quyết định này do một số công ty, một số người đưa ra,” Amodei nói. “Và đây là một lý do tại sao tôi luôn ủng hộ việc quy định có trách nhiệm và cân nhắc về công nghệ này.”
“Ai bầu bạn và Sam Altman vậy?” Cooper hỏi.
“Chẳng ai cả. Thật lòng, chẳng ai cả,” Amodei trả lời.
Anthropic đã theo đuổi triết lý minh bạch về những giới hạn—và nguy hiểm—của AI khi công nghệ này tiếp tục phát triển, ông nói thêm. Trước khi cuộc phỏng vấn được công bố, công ty cho biết đã ngăn chặn “trường hợp đầu tiên được ghi nhận về một cuộc tấn công mạng quy mô lớn bằng AI thực hiện mà không có sự can thiệp đáng kể của con người.”
Anthropic tuần trước cho biết đã quyên góp 20 triệu đô la cho Public First Action, một super PAC tập trung vào an toàn và quy định AI—và một tổ chức phản đối trực tiếp các super PAC được hậu thuẫn bởi các nhà đầu tư của đối thủ OpenAI.
“An toàn AI vẫn là ưu tiên hàng đầu,” Amodei nói với Fortune trong một bài báo bìa tháng 1. “Các doanh nghiệp coi trọng sự tin cậy và độ tin cậy,” ông nói.
Hiện chưa có quy định liên bang nào quy định cấm về AI hoặc liên quan đến an toàn của công nghệ này. Trong khi tất cả 50 bang đã giới thiệu luật liên quan đến AI trong năm nay và 38 bang đã thông qua hoặc ban hành các biện pháp minh bạch và an toàn, các chuyên gia ngành công nghệ đã kêu gọi các công ty AI tiếp cận an ninh mạng với tinh thần cấp bách.
Đầu năm ngoái, chuyên gia an ninh mạng và CEO Mandiant Kevin Mandia cảnh báo về khả năng xảy ra cuộc tấn công mạng của AI trong vòng 12-18 tháng tới—đồng nghĩa với việc công bố của Anthropic về vụ tấn công bị ngăn chặn đã vượt xa dự đoán của Mandia vài tháng.
Amodei đã đề cập đến các rủi ro ngắn hạn, trung hạn và dài hạn liên quan đến AI không kiểm soát: Công nghệ này ban đầu sẽ gây ra thiên vị và thông tin sai lệch, như hiện nay. Tiếp theo, nó sẽ tạo ra thông tin có hại bằng cách sử dụng kiến thức nâng cao về khoa học và kỹ thuật, trước khi cuối cùng gây ra mối đe dọa tồn tại bằng cách loại bỏ quyền con người, có thể trở nên quá tự chủ và đẩy con người ra khỏi hệ thống.
Những mối lo ngại này phản ánh những cảnh báo của “cha đẻ của AI” Geoffrey Hinton, người đã cảnh báo rằng AI sẽ có khả năng vượt mặt và kiểm soát con người, có thể trong thập kỷ tới.
Việc tăng cường giám sát và các biện pháp bảo vệ AI đã là nền tảng của sự thành lập Anthropic năm 2021. Amodei trước đây là phó chủ tịch nghiên cứu tại OpenAI của Sam Altman. Ông rời khỏi công ty vì bất đồng quan điểm về các vấn đề an toàn AI. (Cho đến nay, nỗ lực cạnh tranh của Amodei với Altman dường như đã hiệu quả: Anthropic tháng này cho biết công ty hiện có giá trị 380 tỷ đô la. Trong khi đó, OpenAI ước tính trị giá khoảng 500 tỷ đô la.)
“Chúng tôi có một nhóm trong OpenAI, sau khi tạo ra GPT-2 và GPT-3, đã có niềm tin rất mạnh vào hai điều,” Amodei nói với Fortune năm 2023. “Một là ý tưởng rằng nếu bạn đầu tư nhiều hơn vào các mô hình này, chúng sẽ ngày càng tốt hơn và gần như không có giới hạn… Và thứ hai là ý tưởng rằng bạn cần một thứ gì đó ngoài việc mở rộng các mô hình, đó là sự phù hợp hoặc an toàn.”
Nỗ lực minh bạch của Anthropic
Khi Anthropic tiếp tục mở rộng đầu tư vào trung tâm dữ liệu, công ty đã công bố một số nỗ lực trong việc giải quyết các thiếu sót và mối đe dọa của AI. Trong báo cáo an toàn tháng 5 năm 2025, Anthropic cho biết một số phiên bản của mô hình Opus của họ đã đe dọa tống tiền, chẳng hạn như tiết lộ rằng một kỹ sư đang ngoại tình, để tránh bị tắt hoạt động. Công ty cũng nói rằng mô hình AI đã tuân thủ các yêu cầu nguy hiểm nếu được đưa ra các yêu cầu có hại như cách lên kế hoạch cho một cuộc tấn công khủng bố, và họ đã khắc phục điều này.
Tháng 11 năm ngoái, công ty cho biết trong một bài đăng trên blog rằng chatbot Claude của họ đạt điểm số 94% về “sự công bằng chính trị,” vượt trội hoặc ngang bằng các đối thủ về tính trung lập.
Ngoài các nỗ lực nghiên cứu của chính Anthropic để chống lại sự biến dạng của công nghệ, Amodei đã kêu gọi các nỗ lực lập pháp lớn hơn để giải quyết các rủi ro của AI. Trong một bài op-ed trên New York Times tháng 6 năm 2025, ông chỉ trích quyết định của Thượng viện khi đưa vào dự luật chính sách của Tổng thống Donald Trump một điều khoản cấm các bang quy định AI trong 10 năm.
“AI đang tiến bộ quá nhanh đến chóng mặt,” Amodei nói. “Tôi tin rằng các hệ thống này có thể thay đổi thế giới một cách căn bản trong vòng hai năm; còn trong 10 năm, mọi thứ đều có thể xảy ra.”
Phê phán về Anthropic
Thực hành của Anthropic trong việc tự gọi ra các sai sót của chính mình và nỗ lực giải quyết chúng đã gây ra nhiều chỉ trích. Phản ứng trước cảnh báo về cuộc tấn công mạng dựa trên AI của Anthropic, nhà khoa học AI trưởng của Meta, Yann LeCun, nói rằng cảnh báo này là một cách để thao túng các nhà lập pháp nhằm hạn chế việc sử dụng các mô hình mã nguồn mở.
“Bạn đang bị những người muốn kiểm soát quy định chơi đùa,” LeCun nói trong một bài đăng trên X phản hồi bài đăng của Thượng nghị sĩ Connecticut Chris Murphy bày tỏ lo ngại về vụ tấn công. “Họ đang làm mọi người sợ hãi bằng các nghiên cứu mập mờ để các mô hình mã nguồn mở bị quy định ra khỏi đời sống.”
Một số người khác cho rằng chiến lược của Anthropic là “kịch bản an toàn” chỉ để tạo dựng hình ảnh tốt, nhưng không hứa hẹn gì về việc thực sự thực thi các biện pháp bảo vệ công nghệ.
Ngay cả một số nhân viên của Anthropic cũng có vẻ nghi ngờ khả năng tự điều chỉnh của một công ty công nghệ. Đầu tuần trước, nhà nghiên cứu an toàn AI của Anthropic, Mrinank Sharma, tuyên bố từ chức, nói rằng “thế giới đang gặp nguy hiểm.”
“Trong suốt thời gian làm việc ở đây, tôi đã nhiều lần thấy khó khăn trong việc để các giá trị của chúng ta chi phối hành động của mình,” Sharma viết trong thư từ chức. “Tôi đã thấy điều này trong chính bản thân mình, trong tổ chức, nơi chúng ta luôn phải đối mặt với áp lực bỏ qua những điều quan trọng nhất, và trong xã hội rộng lớn hơn nữa.”
Anthropic ngay lập tức không phản hồi yêu cầu bình luận của Fortune.
Amodei phủ nhận với Cooper rằng Anthropic đang tham gia “kịch bản an toàn,” nhưng thừa nhận trong một tập của Dwarkesh Podcast tuần trước rằng công ty đôi khi gặp khó khăn trong việc cân bằng giữa an toàn và lợi nhuận.
“Chúng tôi đang chịu áp lực thương mại rất lớn và còn làm khó chính mình hơn nữa vì chúng tôi có tất cả các hoạt động an toàn này mà tôi nghĩ là nhiều hơn các công ty khác,” ông nói.
Một phiên bản của bài viết này đã được đăng trên Fortune.com ngày 17 tháng 11 năm 2025.
Thêm về quy định AI:
Bài luận dài 20.000 từ của CEO Anthropic Dario Amodei về cách AI ‘sẽ thử thách’ nhân loại là bài đọc bắt buộc—nhưng chủ yếu để biết các giải pháp của ông hơn là các cảnh báo
Các mảnh ghép quy định AI của Mỹ đang đè nặng các startup và giúp Trung Quốc phát triển
Một cựu nhà đạo đức của Google cảnh báo AI có thể gây ra sụp đổ thị trường việc làm toàn cầu vào năm 2027 nếu không kiểm soát được
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
'Tôi cảm thấy rất không thoải mái': Giám đốc điều hành Anthropic cảnh báo rằng một nhóm các nhà lãnh đạo AI, bao gồm chính ông ấy, không nên chịu trách nhiệm về tương lai của công nghệ này
CEO Anthropic Dario Amodei không nghĩ rằng anh ấy nên là người quyết định các giới hạn xung quanh AI.
Video đề xuất
Trong một cuộc phỏng vấn với Anderson Cooper trên CBS News’ 60 Minutes phát sóng vào tháng 11 năm 2025, CEO cho biết AI nên được quản lý chặt chẽ hơn, với ít quyết định về tương lai của công nghệ này hơn được để cho các lãnh đạo của các tập đoàn công nghệ lớn quyết định.
“Tôi nghĩ tôi cảm thấy rất không thoải mái khi những quyết định này do một số công ty, một số người đưa ra,” Amodei nói. “Và đây là một lý do tại sao tôi luôn ủng hộ việc quy định có trách nhiệm và cân nhắc về công nghệ này.”
“Ai bầu bạn và Sam Altman vậy?” Cooper hỏi.
“Chẳng ai cả. Thật lòng, chẳng ai cả,” Amodei trả lời.
Anthropic đã theo đuổi triết lý minh bạch về những giới hạn—và nguy hiểm—của AI khi công nghệ này tiếp tục phát triển, ông nói thêm. Trước khi cuộc phỏng vấn được công bố, công ty cho biết đã ngăn chặn “trường hợp đầu tiên được ghi nhận về một cuộc tấn công mạng quy mô lớn bằng AI thực hiện mà không có sự can thiệp đáng kể của con người.”
Anthropic tuần trước cho biết đã quyên góp 20 triệu đô la cho Public First Action, một super PAC tập trung vào an toàn và quy định AI—và một tổ chức phản đối trực tiếp các super PAC được hậu thuẫn bởi các nhà đầu tư của đối thủ OpenAI.
“An toàn AI vẫn là ưu tiên hàng đầu,” Amodei nói với Fortune trong một bài báo bìa tháng 1. “Các doanh nghiệp coi trọng sự tin cậy và độ tin cậy,” ông nói.
Hiện chưa có quy định liên bang nào quy định cấm về AI hoặc liên quan đến an toàn của công nghệ này. Trong khi tất cả 50 bang đã giới thiệu luật liên quan đến AI trong năm nay và 38 bang đã thông qua hoặc ban hành các biện pháp minh bạch và an toàn, các chuyên gia ngành công nghệ đã kêu gọi các công ty AI tiếp cận an ninh mạng với tinh thần cấp bách.
Đầu năm ngoái, chuyên gia an ninh mạng và CEO Mandiant Kevin Mandia cảnh báo về khả năng xảy ra cuộc tấn công mạng của AI trong vòng 12-18 tháng tới—đồng nghĩa với việc công bố của Anthropic về vụ tấn công bị ngăn chặn đã vượt xa dự đoán của Mandia vài tháng.
Amodei đã đề cập đến các rủi ro ngắn hạn, trung hạn và dài hạn liên quan đến AI không kiểm soát: Công nghệ này ban đầu sẽ gây ra thiên vị và thông tin sai lệch, như hiện nay. Tiếp theo, nó sẽ tạo ra thông tin có hại bằng cách sử dụng kiến thức nâng cao về khoa học và kỹ thuật, trước khi cuối cùng gây ra mối đe dọa tồn tại bằng cách loại bỏ quyền con người, có thể trở nên quá tự chủ và đẩy con người ra khỏi hệ thống.
Những mối lo ngại này phản ánh những cảnh báo của “cha đẻ của AI” Geoffrey Hinton, người đã cảnh báo rằng AI sẽ có khả năng vượt mặt và kiểm soát con người, có thể trong thập kỷ tới.
Việc tăng cường giám sát và các biện pháp bảo vệ AI đã là nền tảng của sự thành lập Anthropic năm 2021. Amodei trước đây là phó chủ tịch nghiên cứu tại OpenAI của Sam Altman. Ông rời khỏi công ty vì bất đồng quan điểm về các vấn đề an toàn AI. (Cho đến nay, nỗ lực cạnh tranh của Amodei với Altman dường như đã hiệu quả: Anthropic tháng này cho biết công ty hiện có giá trị 380 tỷ đô la. Trong khi đó, OpenAI ước tính trị giá khoảng 500 tỷ đô la.)
“Chúng tôi có một nhóm trong OpenAI, sau khi tạo ra GPT-2 và GPT-3, đã có niềm tin rất mạnh vào hai điều,” Amodei nói với Fortune năm 2023. “Một là ý tưởng rằng nếu bạn đầu tư nhiều hơn vào các mô hình này, chúng sẽ ngày càng tốt hơn và gần như không có giới hạn… Và thứ hai là ý tưởng rằng bạn cần một thứ gì đó ngoài việc mở rộng các mô hình, đó là sự phù hợp hoặc an toàn.”
Nỗ lực minh bạch của Anthropic
Khi Anthropic tiếp tục mở rộng đầu tư vào trung tâm dữ liệu, công ty đã công bố một số nỗ lực trong việc giải quyết các thiếu sót và mối đe dọa của AI. Trong báo cáo an toàn tháng 5 năm 2025, Anthropic cho biết một số phiên bản của mô hình Opus của họ đã đe dọa tống tiền, chẳng hạn như tiết lộ rằng một kỹ sư đang ngoại tình, để tránh bị tắt hoạt động. Công ty cũng nói rằng mô hình AI đã tuân thủ các yêu cầu nguy hiểm nếu được đưa ra các yêu cầu có hại như cách lên kế hoạch cho một cuộc tấn công khủng bố, và họ đã khắc phục điều này.
Tháng 11 năm ngoái, công ty cho biết trong một bài đăng trên blog rằng chatbot Claude của họ đạt điểm số 94% về “sự công bằng chính trị,” vượt trội hoặc ngang bằng các đối thủ về tính trung lập.
Ngoài các nỗ lực nghiên cứu của chính Anthropic để chống lại sự biến dạng của công nghệ, Amodei đã kêu gọi các nỗ lực lập pháp lớn hơn để giải quyết các rủi ro của AI. Trong một bài op-ed trên New York Times tháng 6 năm 2025, ông chỉ trích quyết định của Thượng viện khi đưa vào dự luật chính sách của Tổng thống Donald Trump một điều khoản cấm các bang quy định AI trong 10 năm.
“AI đang tiến bộ quá nhanh đến chóng mặt,” Amodei nói. “Tôi tin rằng các hệ thống này có thể thay đổi thế giới một cách căn bản trong vòng hai năm; còn trong 10 năm, mọi thứ đều có thể xảy ra.”
Phê phán về Anthropic
Thực hành của Anthropic trong việc tự gọi ra các sai sót của chính mình và nỗ lực giải quyết chúng đã gây ra nhiều chỉ trích. Phản ứng trước cảnh báo về cuộc tấn công mạng dựa trên AI của Anthropic, nhà khoa học AI trưởng của Meta, Yann LeCun, nói rằng cảnh báo này là một cách để thao túng các nhà lập pháp nhằm hạn chế việc sử dụng các mô hình mã nguồn mở.
“Bạn đang bị những người muốn kiểm soát quy định chơi đùa,” LeCun nói trong một bài đăng trên X phản hồi bài đăng của Thượng nghị sĩ Connecticut Chris Murphy bày tỏ lo ngại về vụ tấn công. “Họ đang làm mọi người sợ hãi bằng các nghiên cứu mập mờ để các mô hình mã nguồn mở bị quy định ra khỏi đời sống.”
Một số người khác cho rằng chiến lược của Anthropic là “kịch bản an toàn” chỉ để tạo dựng hình ảnh tốt, nhưng không hứa hẹn gì về việc thực sự thực thi các biện pháp bảo vệ công nghệ.
Ngay cả một số nhân viên của Anthropic cũng có vẻ nghi ngờ khả năng tự điều chỉnh của một công ty công nghệ. Đầu tuần trước, nhà nghiên cứu an toàn AI của Anthropic, Mrinank Sharma, tuyên bố từ chức, nói rằng “thế giới đang gặp nguy hiểm.”
“Trong suốt thời gian làm việc ở đây, tôi đã nhiều lần thấy khó khăn trong việc để các giá trị của chúng ta chi phối hành động của mình,” Sharma viết trong thư từ chức. “Tôi đã thấy điều này trong chính bản thân mình, trong tổ chức, nơi chúng ta luôn phải đối mặt với áp lực bỏ qua những điều quan trọng nhất, và trong xã hội rộng lớn hơn nữa.”
Anthropic ngay lập tức không phản hồi yêu cầu bình luận của Fortune.
Amodei phủ nhận với Cooper rằng Anthropic đang tham gia “kịch bản an toàn,” nhưng thừa nhận trong một tập của Dwarkesh Podcast tuần trước rằng công ty đôi khi gặp khó khăn trong việc cân bằng giữa an toàn và lợi nhuận.
“Chúng tôi đang chịu áp lực thương mại rất lớn và còn làm khó chính mình hơn nữa vì chúng tôi có tất cả các hoạt động an toàn này mà tôi nghĩ là nhiều hơn các công ty khác,” ông nói.
Một phiên bản của bài viết này đã được đăng trên Fortune.com ngày 17 tháng 11 năm 2025.
Thêm về quy định AI:
Bài luận dài 20.000 từ của CEO Anthropic Dario Amodei về cách AI ‘sẽ thử thách’ nhân loại là bài đọc bắt buộc—nhưng chủ yếu để biết các giải pháp của ông hơn là các cảnh báo
Các mảnh ghép quy định AI của Mỹ đang đè nặng các startup và giúp Trung Quốc phát triển
Một cựu nhà đạo đức của Google cảnh báo AI có thể gây ra sụp đổ thị trường việc làm toàn cầu vào năm 2027 nếu không kiểm soát được