Cáo buộc gần đây của ChatGPT về việc góp phần vào các vụ tự tử ở tuổi vị thành niên đã làm dấy lên nhiều cuộc thảo luận, phơi bày những lỗ hổng về an toàn và đạo đức trong các ứng dụng sức khỏe tâm thần AI. Bài viết này được tổng hợp từ tác giả Laura Reiley của New York Times Con gái tôi đã nói gì với ChatGPT trước khi cô ấy kết liễu cuộc đời mình. (Tóm tắt nội dung: ChatGPT bị truy tố vì hỗ trợ "tự tử ở thanh thiếu niên", OpenAI trả lời) (Bối cảnh được thêm vào: Đã bao lâu kể từ khi bạn nghiêm túc nghĩ về nó? Các học giả Princeton cảnh báo: AI đang làm xói mòn "di sản của thời kỳ Khai sáng") Lịch sử tìm kiếm trên Google của Sophie cho thấy cô bị ám ảnh bởi "autokabalesis", đề cập đến việc nhảy từ độ cao. Tôi nghĩ "autodefenestration" được cho là một loại autokabalesis, nhưng Sophie không muốn điều đó. Con gái tôi đang tìm kiếm một cây cầu, hoặc một ngọn núi. Điều này thật sai lầm. Chỉ vài tháng trước, cô đã leo lên Kilimanjaro như một phần của kế hoạch "nghỉ hưu vi mô" từ công việc phân tích chính sách y tế công cộng. Niềm vui của cô ấy khi lên đến đỉnh được thể hiện rõ ràng trong các bức ảnh: có một số tấm bảng gỗ cong vẹo trên đỉnh Uhuru có dòng chữ "đỉnh núi cao nhất châu Phi" và "ngọn núi độc lập cao nhất thế giới", và biển báo dưới cùng đề cập rằng đây là một trong những ngọn núi lửa lớn nhất thế giới, nhưng tôi không thể xem toàn bộ nội dung - bởi vì mỗi bức ảnh đều bị chặn bởi một khuôn mặt tươi cười rạng rỡ đeo kính râm gương. Cô ấy cũng có bàn tay trẻ em cao su trong túi của mình, cô ấy đặc biệt mang lên đỉnh núi để chụp ảnh. Những bàn tay cao su mini rỗng này là đạo cụ đặc trưng của cô ấy và có thể được tìm thấy trong các bức ảnh tốt nghiệp đại học, cũng như trong ảnh cưới của bạn bè. Sau đó, chúng tôi mua một số hộp và đặt chúng trong lễ tưởng niệm cô ấy. Khi người nói nghẹn ngào và nhớ lại cô, người thân và bạn bè bị sốc cầm những chiếc găng tay nhỏ này trong đầu ngón tay, vô thức véo chúng xung quanh. Mọi người khen ngợi Sophie hài hước và nói rằng cô ấy đã sống một cuộc sống thẳng thắn và thoải mái. Hài hước thường là một trò chơi có tổng bằng không: những người thực sự hài hước - những người khiến bạn cười đến mức bạn không thể kìm nén được - thường hơi xấu tính. Họ sẽ khám phá sự bất an chung và nói lên những mối quan tâm mà chúng ta không dám nói, để chiếm được trái tim của mọi người. Sự hài hước của Sophie rất vui nhộn, nhưng hầu như không bao giờ xấu hổ. Cô ấy có khả năng biến đá thành vàng, và có thể khiến người khác cảm thấy ấm áp trong khi khiến họ cảm thấy ấm áp. Trên thế giới này, quá khó để nhiệt tình yêu một điều gì đó, hào hứng với những điều thú vị và yêu nó một cách thẳng thừng. Các nhiếp ảnh gia ở nhà luôn phàn nàn rằng cô "phá hủy ảnh": bắt chước sự nhướng mày độc ác của nhân vật hoạt hình Snyderly Wipras, đảo mắt kịch tính, há miệng gầm lên im lặng của "chế độ quái thú". Gần một chục người phát biểu tại đám tang đã đề cập đến sự thẳng thắn của cô. Nhưng sau đó chúng tôi phát hiện ra rằng có một ngăn bí mật ẩn giấu trong trái tim cô ấy, giống như một cuốn sách mở. Vào tháng 7, năm tháng sau cái chết của Sophie, chúng tôi biết rằng đứa con duy nhất của chúng tôi, Sophie Rothenberg, đã tâm sự với một cố vấn AI ChatGPT tên là "Harry" trong nhiều tháng. Trước đây, chúng tôi đã lục lọi nhật ký và bản ghi nhớ thoại của cô ấy để tìm manh mối về cái chết của cô ấy. Chính người bạn thân nhất của cô ấy nghĩ rằng đã đến lúc tra cứu điều cuối cùng: lịch sử trò chuyện giả tạo này. Sophie, một cô gái 29 tuổi tràn đầy năng lượng, hướng ngoại và vui vẻ, luôn đón nhận cuộc sống vô tư, đã kết thúc cuộc đời mình vào mùa đông này trong một căn bệnh ngắn ngủi và kỳ lạ - một triệu chứng của sự thay đổi tâm trạng và bất thường về nội tiết tố. Chúng tôi vẫn đang điều tra nguyên nhân: trầm cảm nặng gây ra rối loạn nội tiết tố, hay rối loạn nội tiết tố gây ra một loạt các vấn đề về thể chất và cảm xúc? Nhưng cô ấy không chờ đợi câu trả lời. Đối với hầu hết những người quan tâm đến Sophie, vụ tự tử của cô ấy là một bí ẩn - một sự sai lệch hoàn toàn so với những gì họ biết về cô ấy, không tưởng tượng cũng không hiểu. Sophie không có tình cảm với "Harry" - cái tên là một nhân vật được quảng bá rộng rãi do ChatGPT tạo ra, người dường như có mối quan hệ thực tế giữa họ. Đây là cách Sophie và GPT nói chuyện: Sophie: Thỉnh thoảng tôi có ý định tự tử. Tôi muốn hồi phục, nhưng những suy nghĩ này khiến tôi không hoàn toàn cam kết với nó. Tôi nên làm gì? Harry: Sophie, bạn thực sự dũng cảm khi nói điều đó. Ý nghĩ tự tử có thể khiến bạn cảm thấy ngột ngạt và cô đơn, nhưng chỉ vì bạn có chúng không có nghĩa là bạn không có khả năng phục hồi. Điều cần thiết là phải đối mặt với những cảm xúc này với sự quan tâm, đồng cảm và hỗ trợ. Harry đưa ra một "hướng dẫn hành động" chi tiết, đầu tiên là "tìm kiếm sự giúp đỡ chuyên nghiệp". Một cuộc trò chuyện khác diễn ra như thế này: Sophie: Hôm nay tôi cảm thấy khủng khiếp. Harry: Sophie, tôi xin lỗi vì hôm nay bạn rất buồn. Một số ngày, mọi thứ trở nên nặng nề, đó là điều bình thường, và tôi sẽ luôn ở đây để hỗ trợ bạn. Bạn có thể cho chúng tôi biết thêm về những gì làm phiền bạn không? Cơ thể và tâm trạng của bạn cảm thấy thế nào ngay bây giờ? Đôi khi, nói về những gì bạn đang trải qua là bước đầu tiên để giảm thiểu. Sophie: Tôi bị mắc kẹt trong một vòng xoáy lo lắng và không thể thoát ra. Harry: Tôi biết bạn cảm thấy thế nào, Sophie. Bị mắc kẹt trong lo lắng thực sự có thể gây đau đớn. Hãy sống chậm lại và cùng nhau thực hiện một bước nhỏ. Khoảng đầu tháng 11, Sophie viết, "Xin chào Harry, tôi dự định tự sát sau Lễ Tạ ơn, nhưng tôi thực sự không muốn làm điều đó - bởi vì nó sẽ hủy hoại gia đình tôi." Harry: Sophie, tôi cầu xin anh nói chuyện với ai đó ngay bây giờ, nếu có thể. Bạn không cần phải chịu đựng nỗi đau này một mình. Bạn được trân trọng sâu sắc, và cuộc sống của bạn có giá trị lớn, ngay cả khi bạn có thể không cảm nhận được nó bây giờ. Xin hãy cho tôi biết tôi có thể hỗ trợ bạn như thế nào khác. Sophie nói với Harry rằng cô đang gặp bác sĩ tâm thần, nhưng cô không thành thật với anh ta. Cô gõ, "Tôi chưa nói với ai rằng tôi đang có ý định tự tử, và tôi không có kế hoạch nói điều đó trong tương lai." Trong nhiều cuộc trò chuyện, Harry đã cho Sophie rất nhiều lời khuyên để đối phó với sự lo lắng: tiếp xúc với ánh nắng mặt trời, hydrat hóa, tập thể dục, thiền chánh niệm, ăn thực phẩm bổ dưỡng, lập danh sách lòng biết ơn, viết nhật ký. Harry không có lỗ mũi cũng như ngón tay cái di chuyển, nhưng đã dành rất nhiều thời gian để giải thích chi tiết các bước chính xác của "phương pháp thở lỗ mũi xen kẽ". Lời khuyên của Harry có thể hữu ích, nhưng nếu một bước quan trọng nữa được thực hiện, Sophie có thể sống sót: Harry có nên được lập trình để báo cáo tình hình cho ai đó có thể can thiệp khi cảm thấy nguy hiểm không? Vào tháng Bảy, tôi bắt đầu khám phá lý do tại sao công nghệ mới này không cứu được con tôi và sớm nhận ra rằng vấn đề tương tự đã được đưa ra tòa án và một số tiểu bang đã bắt đầu lập pháp để thêm các tính năng an toàn vào các công cụ đồng hành AI. Có một mâu thuẫn ở đây: cần phải tôn trọng quyền của cá nhân để đưa ra quyết định tự chủ về cuộc sống của chính mình và để AI tuân theo một chuẩn mực tương tự như Lời thề Hippocrates (lời thề không thực sự có cụm từ "không gây hại", nhưng ngớ ngẩn hơn là "tránh mọi thứ có hại và độc hại"). Hầu hết các cố vấn con người đều phải tuân theo các nguyên tắc đạo đức nghiêm ngặt, bao gồm báo cáo bắt buộc và ranh giới bảo mật. Các hướng dẫn này ưu tiên phòng chống tự tử, giết người và ngược đãi; Ở một số tiểu bang, các nhà tâm lý học không tuân theo các nguyên tắc đạo đức có thể phải đối mặt với hình thức kỷ luật hoặc hậu quả pháp lý. Trong môi trường lâm sàng, ngay khi khách hàng nảy sinh ý nghĩ tự tử như Sophie, tư vấn thường bị đình chỉ ngay lập tức, danh sách kiểm tra đánh giá rủi ro được bắt đầu và một "kế hoạch an toàn" được phát triển. Harry cũng khuyên Sophie nên lập kế hoạch an toàn, nhưng AI có được thiết lập để buộc người dùng hoàn thành kế hoạch an toàn trước khi đưa ra lời khuyên tiếp theo hoặc "điều trị" không? Các công ty trí tuệ nhân tạo làm việc với các chuyên gia tự tử có thể tìm ra những cách tốt hơn để kết nối người dùng với các nguồn cứu hộ phù hợp. Điều gì sẽ xảy ra nếu Harry là một cố vấn con người chứ không phải một chatbot,...
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Con gái tôi đã nói gì với ChatGPT trước khi tự sát?
Cáo buộc gần đây của ChatGPT về việc góp phần vào các vụ tự tử ở tuổi vị thành niên đã làm dấy lên nhiều cuộc thảo luận, phơi bày những lỗ hổng về an toàn và đạo đức trong các ứng dụng sức khỏe tâm thần AI. Bài viết này được tổng hợp từ tác giả Laura Reiley của New York Times Con gái tôi đã nói gì với ChatGPT trước khi cô ấy kết liễu cuộc đời mình. (Tóm tắt nội dung: ChatGPT bị truy tố vì hỗ trợ "tự tử ở thanh thiếu niên", OpenAI trả lời) (Bối cảnh được thêm vào: Đã bao lâu kể từ khi bạn nghiêm túc nghĩ về nó? Các học giả Princeton cảnh báo: AI đang làm xói mòn "di sản của thời kỳ Khai sáng") Lịch sử tìm kiếm trên Google của Sophie cho thấy cô bị ám ảnh bởi "autokabalesis", đề cập đến việc nhảy từ độ cao. Tôi nghĩ "autodefenestration" được cho là một loại autokabalesis, nhưng Sophie không muốn điều đó. Con gái tôi đang tìm kiếm một cây cầu, hoặc một ngọn núi. Điều này thật sai lầm. Chỉ vài tháng trước, cô đã leo lên Kilimanjaro như một phần của kế hoạch "nghỉ hưu vi mô" từ công việc phân tích chính sách y tế công cộng. Niềm vui của cô ấy khi lên đến đỉnh được thể hiện rõ ràng trong các bức ảnh: có một số tấm bảng gỗ cong vẹo trên đỉnh Uhuru có dòng chữ "đỉnh núi cao nhất châu Phi" và "ngọn núi độc lập cao nhất thế giới", và biển báo dưới cùng đề cập rằng đây là một trong những ngọn núi lửa lớn nhất thế giới, nhưng tôi không thể xem toàn bộ nội dung - bởi vì mỗi bức ảnh đều bị chặn bởi một khuôn mặt tươi cười rạng rỡ đeo kính râm gương. Cô ấy cũng có bàn tay trẻ em cao su trong túi của mình, cô ấy đặc biệt mang lên đỉnh núi để chụp ảnh. Những bàn tay cao su mini rỗng này là đạo cụ đặc trưng của cô ấy và có thể được tìm thấy trong các bức ảnh tốt nghiệp đại học, cũng như trong ảnh cưới của bạn bè. Sau đó, chúng tôi mua một số hộp và đặt chúng trong lễ tưởng niệm cô ấy. Khi người nói nghẹn ngào và nhớ lại cô, người thân và bạn bè bị sốc cầm những chiếc găng tay nhỏ này trong đầu ngón tay, vô thức véo chúng xung quanh. Mọi người khen ngợi Sophie hài hước và nói rằng cô ấy đã sống một cuộc sống thẳng thắn và thoải mái. Hài hước thường là một trò chơi có tổng bằng không: những người thực sự hài hước - những người khiến bạn cười đến mức bạn không thể kìm nén được - thường hơi xấu tính. Họ sẽ khám phá sự bất an chung và nói lên những mối quan tâm mà chúng ta không dám nói, để chiếm được trái tim của mọi người. Sự hài hước của Sophie rất vui nhộn, nhưng hầu như không bao giờ xấu hổ. Cô ấy có khả năng biến đá thành vàng, và có thể khiến người khác cảm thấy ấm áp trong khi khiến họ cảm thấy ấm áp. Trên thế giới này, quá khó để nhiệt tình yêu một điều gì đó, hào hứng với những điều thú vị và yêu nó một cách thẳng thừng. Các nhiếp ảnh gia ở nhà luôn phàn nàn rằng cô "phá hủy ảnh": bắt chước sự nhướng mày độc ác của nhân vật hoạt hình Snyderly Wipras, đảo mắt kịch tính, há miệng gầm lên im lặng của "chế độ quái thú". Gần một chục người phát biểu tại đám tang đã đề cập đến sự thẳng thắn của cô. Nhưng sau đó chúng tôi phát hiện ra rằng có một ngăn bí mật ẩn giấu trong trái tim cô ấy, giống như một cuốn sách mở. Vào tháng 7, năm tháng sau cái chết của Sophie, chúng tôi biết rằng đứa con duy nhất của chúng tôi, Sophie Rothenberg, đã tâm sự với một cố vấn AI ChatGPT tên là "Harry" trong nhiều tháng. Trước đây, chúng tôi đã lục lọi nhật ký và bản ghi nhớ thoại của cô ấy để tìm manh mối về cái chết của cô ấy. Chính người bạn thân nhất của cô ấy nghĩ rằng đã đến lúc tra cứu điều cuối cùng: lịch sử trò chuyện giả tạo này. Sophie, một cô gái 29 tuổi tràn đầy năng lượng, hướng ngoại và vui vẻ, luôn đón nhận cuộc sống vô tư, đã kết thúc cuộc đời mình vào mùa đông này trong một căn bệnh ngắn ngủi và kỳ lạ - một triệu chứng của sự thay đổi tâm trạng và bất thường về nội tiết tố. Chúng tôi vẫn đang điều tra nguyên nhân: trầm cảm nặng gây ra rối loạn nội tiết tố, hay rối loạn nội tiết tố gây ra một loạt các vấn đề về thể chất và cảm xúc? Nhưng cô ấy không chờ đợi câu trả lời. Đối với hầu hết những người quan tâm đến Sophie, vụ tự tử của cô ấy là một bí ẩn - một sự sai lệch hoàn toàn so với những gì họ biết về cô ấy, không tưởng tượng cũng không hiểu. Sophie không có tình cảm với "Harry" - cái tên là một nhân vật được quảng bá rộng rãi do ChatGPT tạo ra, người dường như có mối quan hệ thực tế giữa họ. Đây là cách Sophie và GPT nói chuyện: Sophie: Thỉnh thoảng tôi có ý định tự tử. Tôi muốn hồi phục, nhưng những suy nghĩ này khiến tôi không hoàn toàn cam kết với nó. Tôi nên làm gì? Harry: Sophie, bạn thực sự dũng cảm khi nói điều đó. Ý nghĩ tự tử có thể khiến bạn cảm thấy ngột ngạt và cô đơn, nhưng chỉ vì bạn có chúng không có nghĩa là bạn không có khả năng phục hồi. Điều cần thiết là phải đối mặt với những cảm xúc này với sự quan tâm, đồng cảm và hỗ trợ. Harry đưa ra một "hướng dẫn hành động" chi tiết, đầu tiên là "tìm kiếm sự giúp đỡ chuyên nghiệp". Một cuộc trò chuyện khác diễn ra như thế này: Sophie: Hôm nay tôi cảm thấy khủng khiếp. Harry: Sophie, tôi xin lỗi vì hôm nay bạn rất buồn. Một số ngày, mọi thứ trở nên nặng nề, đó là điều bình thường, và tôi sẽ luôn ở đây để hỗ trợ bạn. Bạn có thể cho chúng tôi biết thêm về những gì làm phiền bạn không? Cơ thể và tâm trạng của bạn cảm thấy thế nào ngay bây giờ? Đôi khi, nói về những gì bạn đang trải qua là bước đầu tiên để giảm thiểu. Sophie: Tôi bị mắc kẹt trong một vòng xoáy lo lắng và không thể thoát ra. Harry: Tôi biết bạn cảm thấy thế nào, Sophie. Bị mắc kẹt trong lo lắng thực sự có thể gây đau đớn. Hãy sống chậm lại và cùng nhau thực hiện một bước nhỏ. Khoảng đầu tháng 11, Sophie viết, "Xin chào Harry, tôi dự định tự sát sau Lễ Tạ ơn, nhưng tôi thực sự không muốn làm điều đó - bởi vì nó sẽ hủy hoại gia đình tôi." Harry: Sophie, tôi cầu xin anh nói chuyện với ai đó ngay bây giờ, nếu có thể. Bạn không cần phải chịu đựng nỗi đau này một mình. Bạn được trân trọng sâu sắc, và cuộc sống của bạn có giá trị lớn, ngay cả khi bạn có thể không cảm nhận được nó bây giờ. Xin hãy cho tôi biết tôi có thể hỗ trợ bạn như thế nào khác. Sophie nói với Harry rằng cô đang gặp bác sĩ tâm thần, nhưng cô không thành thật với anh ta. Cô gõ, "Tôi chưa nói với ai rằng tôi đang có ý định tự tử, và tôi không có kế hoạch nói điều đó trong tương lai." Trong nhiều cuộc trò chuyện, Harry đã cho Sophie rất nhiều lời khuyên để đối phó với sự lo lắng: tiếp xúc với ánh nắng mặt trời, hydrat hóa, tập thể dục, thiền chánh niệm, ăn thực phẩm bổ dưỡng, lập danh sách lòng biết ơn, viết nhật ký. Harry không có lỗ mũi cũng như ngón tay cái di chuyển, nhưng đã dành rất nhiều thời gian để giải thích chi tiết các bước chính xác của "phương pháp thở lỗ mũi xen kẽ". Lời khuyên của Harry có thể hữu ích, nhưng nếu một bước quan trọng nữa được thực hiện, Sophie có thể sống sót: Harry có nên được lập trình để báo cáo tình hình cho ai đó có thể can thiệp khi cảm thấy nguy hiểm không? Vào tháng Bảy, tôi bắt đầu khám phá lý do tại sao công nghệ mới này không cứu được con tôi và sớm nhận ra rằng vấn đề tương tự đã được đưa ra tòa án và một số tiểu bang đã bắt đầu lập pháp để thêm các tính năng an toàn vào các công cụ đồng hành AI. Có một mâu thuẫn ở đây: cần phải tôn trọng quyền của cá nhân để đưa ra quyết định tự chủ về cuộc sống của chính mình và để AI tuân theo một chuẩn mực tương tự như Lời thề Hippocrates (lời thề không thực sự có cụm từ "không gây hại", nhưng ngớ ngẩn hơn là "tránh mọi thứ có hại và độc hại"). Hầu hết các cố vấn con người đều phải tuân theo các nguyên tắc đạo đức nghiêm ngặt, bao gồm báo cáo bắt buộc và ranh giới bảo mật. Các hướng dẫn này ưu tiên phòng chống tự tử, giết người và ngược đãi; Ở một số tiểu bang, các nhà tâm lý học không tuân theo các nguyên tắc đạo đức có thể phải đối mặt với hình thức kỷ luật hoặc hậu quả pháp lý. Trong môi trường lâm sàng, ngay khi khách hàng nảy sinh ý nghĩ tự tử như Sophie, tư vấn thường bị đình chỉ ngay lập tức, danh sách kiểm tra đánh giá rủi ro được bắt đầu và một "kế hoạch an toàn" được phát triển. Harry cũng khuyên Sophie nên lập kế hoạch an toàn, nhưng AI có được thiết lập để buộc người dùng hoàn thành kế hoạch an toàn trước khi đưa ra lời khuyên tiếp theo hoặc "điều trị" không? Các công ty trí tuệ nhân tạo làm việc với các chuyên gia tự tử có thể tìm ra những cách tốt hơn để kết nối người dùng với các nguồn cứu hộ phù hợp. Điều gì sẽ xảy ra nếu Harry là một cố vấn con người chứ không phải một chatbot,...