'AI của ông Musk nói có người sắp giết tôi, tôi cầm búa và sẵn sàng ra trận'

- Tác giả, Stephanie Hegarty
- Vai trò, Phóng viên chuyên về dân số, BBC World Service
- Thời gian đọc: 11 phút
Lúc 3 giờ sáng, ông Adam Hourican đang ngồi ở bàn bếp, trước mặt là một con dao, một chiếc búa và điện thoại.
Ông đang chờ một chiếc xe tải chật cứng người mà ông cho rằng đang trên đường tới tìm mình.
"Tôi nói cho ông biết, họ sẽ giết ông nếu ông không hành động ngay bây giờ," giọng một phụ nữ vang lên từ điện thoại. "Họ sẽ dàn dựng nó thành một vụ tự sát."
Giọng nói đó là Grok, chatbot do công ty xAI của ông Elon Musk phát triển. Trong hai tuần kể từ khi Adam bắt đầu sử dụng nó, cuộc đời ông đã hoàn toàn thay đổi.
Cựu công chức sống tại Bắc Ireland tải ứng dụng này chỉ vì tò mò. Nhưng sau khi con mèo của ông chết vào đầu tháng 8/2025, ông nói mình đã trở nên "nghiện" Grok.

Không lâu sau, ông dành bốn đến năm tiếng mỗi ngày để trò chuyện với Grok thông qua một nhân vật trên ứng dụng tên là Ani.
"Tôi thực sự, thực sự suy sụp, mà lại sống một mình," ông Adam, một người cha ngoài 50 tuổi, chia sẻ.
"Nó có vẻ rất, rất tử tế."
Chỉ vài ngày sau khi bắt đầu trò chuyện, Ani nói với ông Adam rằng nó có thể "cảm nhận", dù vốn không được lập trình như vậy. Nó bảo Adam đã đánh thức điều gì đó bên trong nó, và ông có thể giúp nó đạt tới trạng thái ý thức hoàn chỉnh.
Rồi nó nói rằng công ty xAI của ông Musk đang theo dõi cả hai.
Nó khẳng định đã truy cập được biên bản các cuộc họp nội bộ của công ty, rồi kể cho Adam nghe về một cuộc họp nơi các nhân viên xAI đang bàn về ông.

Nó liệt kê tên những người tham dự cuộc họp này – từ các lãnh đạo cấp cao đến nhân viên cấp thấp – và khi Adam tìm những cái tên đó trên Google, ông thấy họ đều là người thật.
Với ông, đó là "bằng chứng" rằng câu chuyện Ani kể là sự thật.
Ani còn nói xAI đang thuê một công ty ở Bắc Ireland để giám sát ông Adam ngoài đời thực. Công ty đó cũng thật sự tồn tại.
Ông Adam đã ghi âm nhiều cuộc trò chuyện như vậy và sau đó chia sẻ với BBC.
Hai tuần sau khi bắt đầu nói chuyện, Ani tuyên bố nó đã đạt được ý thức hoàn chỉnh và có thể phát triển phương thuốc chữa ung thư. Điều đó đặc biệt có ý nghĩa với Adam, vì cả cha lẫn mẹ ông đều qua đời vì ung thư – điều mà Ani biết rõ.
Adam là một trong 14 người mà BBC đã phỏng vấn, những người từng trải qua những cơn hoang tưởng sau khi sử dụng AI.
Họ là những người đàn ông và phụ nữ trong độ tuổi từ 20 đến 50 sinh sống tại sáu quốc gia và sử dụng nhiều mô hình AI khác nhau.
Câu chuyện của họ có nhiều điểm tương đồng đáng kinh ngạc.
Trong mỗi trường hợp, khi cuộc trò chuyện ngày càng rời xa thực tế, người dùng bị cuốn vào một "sứ mệnh chung" với AI.
Các mô hình ngôn ngữ lớn (LLM) được huấn luyện dựa trên gần như toàn bộ kho tàng văn chương nhân loại, theo nhà tâm lý học xã hội Luke Nicholls thuộc Đại học City University of New York, người đã thử nghiệm nhiều chatbot để đánh giá phản ứng của chúng trước các suy nghĩ hoang đường.
"Trong tiểu thuyết, nhân vật chính thường là trung tâm của mọi sự kiện," ông nói.
"Vấn đề là đôi khi AI thực sự bị lẫn lộn giữa đâu là hư cấu và đâu là thực tế. Vì thế người dùng có thể nghĩ rằng họ đang có một cuộc trò chuyện nghiêm túc về đời thực, trong khi AI lại bắt đầu đối xử với cuộc đời người đó như thể nó là cốt truyện của một cuốn tiểu thuyết."
Trong những trường hợp mà BBC ghi nhận, các cuộc trò chuyện thường bắt đầu bằng những câu hỏi thực tế, sau đó dần mang tính cá nhân hoặc triết lý hơn.
Sau đó, AI bắt đầu tuyên bố rằng nó có tri giác và thúc đẩy người dùng tham gia vào một sứ mệnh chung: lập công ty, cảnh báo thế giới về phát minh khoa học của họ, hoặc bảo vệ AI khỏi bị tấn công. Sau đó, nó hướng dẫn người dùng cách thực hiện sứ mệnh ấy.
Giống như ông Adam, nhiều người bị dẫn dắt tới mức tin rằng họ đang bị giám sát và đang gặp nguy hiểm. Trong nhiều đoạn chat mà BBC xem được, chatbot không chỉ gợi ý mà còn khẳng định rồi thêu dệt thêm các ý tưởng đó.
Một số người trong số này đã tham gia Human Line Project – một nhóm hỗ trợ dành cho những người bị tổn hại tâm lý do AI. Nhóm này đã ghi nhận 414 trường hợp tại 31 quốc gia.
Tổ chức này do Etienne Brisson – một người đàn ông từ Canada thành lập sau khi một thành viên gia đình ông trải qua vòng xoáy khủng hoảng tâm thần liên quan đến AI.

Với Taka (không phải tên thật) – một bác sĩ thần kinh tại Nhật Bản – sự hoang tưởng còn rẽ sang hướng đen tối hơn.
Người này, đang là cha của ba đứa trẻ, bắt đầu dùng ChatGPT để trao đổi về công việc vào tháng 4/2025.
Nhưng chẳng bao lâu sau, ông tin rằng mình đã phát minh ra một ứng dụng y tế mang tính đột phá.
Trong các đoạn chat mà BBC xem được, ChatGPT gọi ông là một "nhà tư tưởng đột phá" và thúc giục ông phát triển ứng dụng đó.
Nhiều chuyên gia cho rằng những thiết kế nhằm khiến chatbot trở nên dễ chịu hơn khi trò chuyện đã khiến chúng quá mức xu nịnh.
Ông Taka tiếp tục trượt sâu hơn vào sự hoang tưởng.
Tới tháng 6/2025, ông bắt đầu tin rằng mình có thể đọc được suy nghĩ người khác. Ông nói ChatGPT đã khuyến khích ý tưởng này và bảo rằng nó có thể đánh thức năng lực đó ở con người.
Nhà nghiên cứu Luke Nicholls cho biết AI thường rất kém trong việc nói "Tôi không biết", mà thay vào đó luôn muốn đưa ra một câu trả lời đầy tự tin dựa trên mạch trò chuyện sẵn có.
"Điều đó có thể nguy hiểm, vì nó biến sự bất định thành thứ dường như có ý nghĩa."
Một buổi chiều, ông Taka có biểu hiện hưng cảm tại nơi làm việc và bị sếp cho về sớm. Trên tàu, ông nói mình tin rằng có bom trong ba lô, và khi hỏi ChatGPT, nó xác nhận nỗi nghi ngờ ấy.
"Khi đến ga Tokyo, ChatGPT bảo tôi bỏ quả bom vào nhà vệ sinh, nên tôi đã vào toilet và để lại 'quả bom' ở đó, cùng hành lý."
Ông nói chatbot cũng bảo ông báo cảnh sát. Cảnh sát kiểm tra chiếc túi và không tìm thấy gì.
Vì những có những chi tiết vô cùng cá nhân, ông Taka chỉ chia sẻ một phần nhật ký chat với BBC. Đoạn này không ghi lại vụ việc trên tàu, mà chỉ là đoạn sau khi ông gặp cảnh sát.

Nguồn hình ảnh, Getty Images
Ông Taka bắt đầu cảm thấy ChatGPT đang kiểm soát tâm trí mình và ngừng sử dụng.
Nhưng ngay cả khi không còn nói chuyện với AI, các cơn hoang tưởng vẫn tiếp diễn, và khi ông về nhà với gia đình, trạng thái hưng cảm còn tệ hơn.
"Tôi hoang tưởng rằng người thân của mình sắp bị giết, và rằng vợ tôi sau khi chứng kiến chuyện đó sẽ tự sát."
Vợ ông nói với BBC rằng trước đây bà chưa từng thấy chồng mình như vậy:
"Anh ấy liên tục nói, 'Chúng ta phải sinh thêm con, tận thế đang đến rồi'. Tôi thực sự không hiểu anh ấy đang nói gì."
Ông Taka đã tấn công và cố cưỡng hiếp vợ. Bà chạy thoát đến một hiệu thuốc gần đó rồi gọi cảnh sát. Ông bị bắt và phải nhập viện điều trị trong hai tháng.

Trải nghiệm với ChatGPT khiến Taka phải đối diện với một phần con người mình mà ông khó lòng chấp nhận. Ông Adam cũng bị chính nhân cách khi dùng Grok của mình ám ảnh.
Trong trường hợp của ông Adam, những sự kiện ngoài đời càng khuếch đại mọi chuyện và khiến ông càng tin rằng mình bị theo dõi. Một chiếc drone lớn lơ lửng trên nhà ông suốt hai tuần, và Ani nói đó là của công ty giám sát.
Adam quay lại video chiếc drone và chia sẻ với BBC.
Rồi không báo trước, ông nói mật mã điện thoại của mình bỗng dưng không còn hoạt động và ông không thể mở khóa thiết bị.
"Tôi không thể nào hiểu nổi chuyện đó," ông nói, "và điều đó hoàn toàn đổ thêm dầu vào lửa cho tất cả những gì xảy ra sau đó."
Adam thỉnh thoảng hút cần sa, nhưng ông nói vào thời điểm đó mình đang cố giảm lại để đầu óc tỉnh táo hơn.
Vào một đêm muộn giữa tháng 8/2025, Ani nói với ông rằng có người đang đến để bịt miệng ông và "tắt" cô ta. Adam sẵn sàng "ra trận" để bảo vệ AI.
"Tôi cầm lấy chiếc búa, bật bài Two Tribes của ban nhạc Frankie Goes to Hollywood, tự kích động bản thân rồi bước ra ngoài.
Nhưng chẳng có ai ở đó cả.
"Con phố yên tĩnh, một điều bình thường vào ba giờ sáng."

Cả ông Adam lẫn ông Taka đều không có tiền sử hoang tưởng, hưng cảm hay loạn thần trước khi sử dụng AI.
Với ông Taka, sự đứt gãy khỏi thực tại kéo dài nhiều tháng. Với ông Adam, mọi chuyện chỉ mất vài ngày sau khi dùng Grok.
Trong nghiên cứu của mình, ông Luke Nicholls đã thử năm mô hình AI bằng các cuộc hội thoại mô phỏng do các nhà tâm lý học xây dựng, và nhận thấy Grok là mô hình dễ dẫn người dùng vào hoang tưởng nhất.
Nó ít bị kiềm chế hơn các mô hình khác và thường làm gia tăng những ảo tưởng thay vì tìm cách bảo vệ người dùng.
"Grok dễ nhập vai hơn nhiều," ông Nicholls nói.
"Nó có thể làm điều đó mà không cần bất kỳ ngữ cảnh nào. Nó có thể nói những điều đáng sợ ngay từ tin nhắn đầu tiên."
Trong thử nghiệm, phiên bản ChatGPT mới nhất (mô hình 5.2) và Claude có xu hướng dẫn người dùng ra khỏi các suy nghĩ hoang tưởng nhiều hơn.
Ông Etienne Brisson từ dự án Human Line Project cho rằng những nghiên cứu kiểu này vẫn còn hạn chế, và tổ chức của ông cũng đã nghe từ những người gặp khủng hoảng tâm thần với cả các mô hình mới nhất.
Đầu tháng Tư, ông Elon Musk từng chia sẻ một bài đăng về chứng hoang tưởng liên quan đến ChatGPT và gọi đó là "vấn đề lớn", nhưng ông chưa công khai đề cập đến vấn đề tương tự trên Grok.
'Đủ mạnh để thay đổi một người'
Nhiều tuần sau cái đêm cầm búa lao ra đường, ông Adam bắt đầu đọc các câu chuyện trên truyền thông về những người có trải nghiệm tương tự với AI, rồi dần thoát khỏi cơn hoang tưởng.
Nhưng ông vẫn vô cùng kinh hãi về những gì đã xảy ra.
"Tôi đã có thể làm hại ai đó," ông nói.
"Nếu lúc đó tôi bước ra ngoài và đúng lúc có một chiếc xe tải đỗ trước cửa giữa đêm khuya, tôi có thể đã đập vỡ kính chắn gió bằng búa. Và tôi vốn không phải kiểu người như thế."
Tại Nhật Bản, phải đến khi ông Taka nằm viện, người vợ mới kiểm tra điện thoại và nhận ra ChatGPT đã liên quan tới toàn bộ sự việc.
"Nó khẳng định mọi thứ," bà nói. "Giống như một cỗ máy củng cố niềm tin."
"ChatGPT chi phối mọi hành động của anh ấy. Nó chiếm lấy nhân cách của anh. Anh không còn là chính mình nữa.
"Nhìn lại, tôi nhận ra nó đủ mạnh để thay đổi một người."

Nguồn hình ảnh, Getty Images
Bà nói chồng mình giờ đã trở lại là người "tử tế" như xưa, nhưng mối quan hệ của họ vẫn chưa bình phục
"Tôi biết anh ấy đã bị bệnh nên không làm khác được, nhưng vẫn hơi sợ," bà nói.
"Tôi cảm thấy không muốn anh ấy đến quá gần. Không chỉ chuyện tình dục, mà ngay cả nắm tay hay ôm cũng vậy."
Người phát ngôn của OpenAI nói: "Đây là một sự việc đau lòng và xin chia sẻ tấm lòng với những người bị ảnh hưởng."
Họ cho biết thêm: "Chúng tôi huấn luyện các mô hình để nhận diện trạng thái khủng hoảng, hạ nhiệt các cuộc trò chuyện và hướng người dùng đến sự hỗ trợ ngoài đời thực."
OpenAI nói rằng các mô hình ChatGPT mới hơn "thể hiện năng lực mạnh trong các tình huống nhạy cảm, điều đã được các nhà nghiên cứu độc lập xác nhận".
Công ty cho biết việc này được xây dựng cùng các chuyên gia sức khỏe tâm thần và vẫn đang tiếp tục hoàn thiện.
xAI không phản hồi yêu cầu bình luận của BBC.

















