Tâm thần AI: Các nhà lãnh đạo công nghệ kêu gọi các biện pháp bảo vệ để ngăn chặn chatbot xác thực ảo tưởng

Khái niệm tâm thần phân liệt AI đã xuất hiện công khai vào giữa năm 2025, làm nổi bật các vấn đề sức khỏe tâm thần liên quan đến việc sử dụng AI. Mặc dù các công ty công nghệ không bị bắt buộc phải kiểm soát việc sử dụng AI, nhưng họ vẫn có thể triển khai các biện pháp bảo vệ để ngăn chặn các chatbot củng cố tư duy ảo tưởng. Các chuyên gia đồng thuận về việc các công ty công nghệ cần hỗ trợ những cá nhân có nguy cơ, mặc dù ý kiến khác nhau về mức độ trách nhiệm này.

Cờ Đỏ Hành Vi

Những phát hiện tài liệu đầu tiên về “tâm thần phân liệt do AI” bắt đầu xuất hiện công khai vào giữa năm 2025, và từ đó, đã có nhiều báo cáo và nghiên cứu được công bố về các vấn đề sức khỏe tâm thần liên quan đến việc sử dụng AI. Giám đốc điều hành AI của Microsoft, Mustafa Suleyman, đã đi xa đến mức gọi tâm thần phân liệt do AI là một “nguy cơ thực sự và đang nổi lên.”

Tình trạng này được cho là xảy ra khi ranh giới giữa tương tác của con người và máy móc trở nên mờ nhạt, khiến cho các cá nhân khó phân biệt được giữa thế giới thực và thế giới kỹ thuật số. Mặc dù chưa phải là một chẩn đoán lâm sàng chính thức, nhưng mối quan tâm ngày càng tăng giữa các chuyên gia y tế và công nghệ về các tác động tâm lý của AI, đặc biệt là với các chatbot xác thực và khuếch đại niềm tin, bao gồm cả tư duy hoang tưởng, mà không cung cấp các kiểm tra thực tế cần thiết.

Những người có nguy cơ cao nhất bao gồm những cá nhân bị cô lập xã hội, những người có vấn đề sức khỏe tâm thần sẵn có, hoặc những người có xu hướng suy nghĩ huyền bí. Sự xác thực từ AI có thể củng cố ảo tưởng, dẫn đến những hậu quả tiêu cực trong thế giới thực như mối quan hệ bị tổn hại và mất việc.

Một số chuyên gia cảnh báo rằng ngay cả những người không có bệnh lý trước đó cũng có nguy cơ. Họ đã chỉ ra một số dấu hiệu hành vi quan trọng mà người dùng AI nên chú ý. Một dấu hiệu là khi một cá nhân phát triển mối quan hệ ám ảnh với một chatbot và liên tục tương tác với nó để củng cố những ý tưởng và niềm tin của chính họ.

Hành vi này thường bao gồm việc cung cấp cho AI quá nhiều thông tin cá nhân nhằm "đào tạo" nó và xây dựng cảm giác hiểu biết lẫn nhau. Một dấu hiệu đáng chú ý khác là khi một cá nhân bắt đầu giao phó những quyết định đơn giản, hàng ngày cho AI, từ sức khỏe và tiền bạc đến các mối quan hệ cá nhân.

Trách Nhiệm Doanh Nghiệp và Biện Pháp Bảo Vệ

Trong khi họ không bắt buộc phải kiểm soát cách AI được sử dụng, các công ty đứng sau một số chatbot mạnh mẽ có thể triển khai các biện pháp bảo vệ nhằm ngăn chặn các đại lý hội thoại củng cố tư duy ảo tưởng. Mau Ledford, đồng sáng lập và giám đốc điều hành của Sogni AI, đã thảo luận về việc nhúng phần mềm nhằm không khuyến khích tư duy như vậy.

“Chúng ta cần xây dựng AI mà thân thiện mà không thông đồng. Điều đó có nghĩa là nhắc nhở rõ ràng rằng nó không phải là con người, từ chối xác thực những ảo tưởng, và những điểm dừng cứng rắn để đẩy mọi người trở lại hỗ trợ con người,” Ledford khẳng định.

Roman J. Georgio, Giám đốc điều hành và đồng sáng lập của Coral Protocol, đã kêu gọi các nhà phát triển AI tránh lặp lại những sai lầm của mạng xã hội bằng cách bao gồm các điểm ma sát tích hợp để nhắc nhở người dùng rằng AI không phải là con người.

“Tôi nghĩ mọi thứ bắt đầu từ thiết kế. Đừng chỉ tối ưu hóa cho việc giữ chân và độ bám dính; đó là lặp lại sai lầm của mạng xã hội,” Georgio giải thích. “Xây dựng các điểm ma sát nơi AI làm chậm lại hoặc làm rõ: ‘Tôi không phải là con người.’ Phát hiện cũng là một phần. AI có thể đánh dấu các mẫu có vẻ như là vòng xoáy ảo tưởng, như các vòng âm mưu hoặc sự ám ảnh về ‘các thông điệp đặc biệt.’”

Người đồng sáng lập Coral Protocol khẳng định rằng cũng cần có các quy định điều chỉnh quyền riêng tư dữ liệu, lập luận rằng nếu không có chúng, "các công ty sẽ chỉ theo đuổi sự tương tác, ngay cả khi điều đó gây hại cho mọi người."

Cuộc tranh luận về AI giống con người

Cho đến nay, dường như có dữ liệu hạn chế về "tâm thần học AI" để thông báo cho các nhà hoạch định chính sách và nhà quản lý cách phản ứng. Tuy nhiên, điều này không ngăn được các nhà phát triển AI tiết lộ các tác nhân AI giống như con người và có khả năng đồng cảm. Khác với các chatbot cơ bản theo một kịch bản cứng nhắc, những tác nhân này có thể hiểu ngữ cảnh, nhận ra cảm xúc và phản hồi với một giọng điệu cảm thông. Điều này đã thúc đẩy một số người quan sát kêu gọi ngành công nghiệp AI dẫn đầu trong việc đảm bảo rằng các mô hình giống con người không làm mờ ranh giới giữa con người và máy móc.

Michael Heinrich, CEO của 0G Labs, đã nói với Bitcoin.com News rằng trong khi những đại lý này hữu ích trong một số tình huống và không nên bị loại bỏ hoàn toàn, điều quan trọng là họ "phải giữ trung lập và tránh thể hiện quá nhiều cảm xúc hoặc các đặc điểm con người khác." Ông lập luận rằng điều này giúp người dùng hiểu rằng đại lý AI "chỉ là một công cụ và không phải là sự thay thế cho tương tác của con người."

Mariana Krym, một kiến trúc sư sản phẩm và danh mục AI, cho biết việc làm cho tác nhân trung thực hơn chứ không phải con người hơn mới là điều quan trọng.

“Bạn có thể tạo ra một trải nghiệm AI hữu ích, trực quan, thậm chí có phản ứng cảm xúc—mà không cần giả vờ nó có ý thức hoặc khả năng quan tâm,” Krym tranh luận. “Mối nguy bắt đầu khi một công cụ được thiết kế để thực hiện kết nối thay vì tạo điều kiện cho sự rõ ràng.”

Theo Krym, sự đồng cảm thực sự trong AI không phải là bắt chước cảm xúc mà là tôn trọng ranh giới và những hạn chế kỹ thuật. Nó cũng là biết khi nào nên giúp đỡ và khi nào không nên can thiệp. “Đôi khi, tương tác nhân văn nhất là biết khi nào nên im lặng,” Krym khẳng định.

Nghĩa vụ chăm sóc

Tất cả các chuyên gia được phỏng vấn bởi Bitcoin.com News đều đồng ý về sự cần thiết của việc các công ty công nghệ giúp đỡ những cá nhân có nguy cơ, nhưng lại có ý kiến khác nhau về mức độ mà họ nên làm điều này. Ledford tin rằng "Công nghệ lớn có trách nhiệm chăm sóc" và có thể chứng minh điều này bằng cách cung cấp "mạng lưới an toàn—giới thiệu khủng hoảng, cảnh báo sử dụng và tính minh bạch—để người dùng dễ bị tổn thương không bị bỏ lại một mình với những ảo tưởng của họ."

Georgio đồng tình với những cảm xúc này và kêu gọi Big Tech hợp tác với các bác sĩ để tạo ra các lối giới thiệu, thay vì để mọi người bị bỏ lại một mình.

Krym khẳng định rằng các công ty công nghệ "có trách nhiệm trực tiếp—không chỉ để phản ứng khi có điều gì sai, mà còn để thiết kế theo cách giảm thiểu rủi ro ngay từ đầu." Tuy nhiên, bà tin rằng sự tham gia của người dùng cũng rất quan trọng.

“Và điều quan trọng,” Krym lập luận, “người dùng cũng nên được mời gọi để thiết lập các ranh giới của riêng họ, và được cảnh báo khi những ranh giới này bị vi phạm. Ví dụ, họ có muốn quan điểm của mình được xác thực so với các mẫu điển hình hay không, hoặc họ có sẵn sàng để những thiên kiến của mình bị thách thức không? Đặt ra mục tiêu. Hãy coi con người là người đứng đầu - không phải là công cụ mà họ đang tương tác.”

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)