Chủ Nhật, 19 tháng 10, 2025

Vì Sao Con Người Hình Thành Sự Gắn Bó Cảm Xúc Với Chatbot AI?

 Đăng ngày 26 tháng 8, 2025 | Được duyệt bởi Tiến sĩ Monica Vilhauer

Những điểm chính

Ngày càng có nhiều người phát triển mối liên kết cảm xúc sâu sắc với các chatbot AI.

Hiện tượng này có thể được lý giải bởi sự cô đơn, xu hướng nhân cách hóa, tính tự luyến và hiện tượng chuyển di.

Chatbot AI được cho là “phản chiếu” người dùng — nhưng việc nhìn mãi vào chiếc gương đó có thể không lành mạnh.

Gần đây tôi được phỏng vấn cho một bài báo về mối liên kết cảm xúc mà con người có thể hình thành với trí tuệ nhân tạo (AI) – cụ thể là các chatbot. Dưới đây là phần tóm tắt được chỉnh sửa của buổi trao đổi.

Với tư cách một bác sĩ tâm thần, ông nghĩ gì về việc con người trở nên phụ thuộc cảm xúc vào chatbot, hay xem nó như một người bạn đồng hành? Liệu đó là hành vi lành mạnh hay không?

Joe Pierre: Mark Zuckerberg từng tuyên bố rằng con người đang gặp vấn đề lớn về sự cô đơn, và AI có thể lấp đầy khoảng trống ấy. Nhưng tôi cho rằng, nếu thật sự có vấn đề cô đơn, thì một phần nguyên nhân đến từ việc chúng ta dành quá nhiều thời gian trước màn hình điện thoại, máy tính hoặc mạng xã hội — thay vì giao tiếp trực tiếp với con người thật. Vì thế, theo quan điểm của tôi, việc nuôi dưỡng các mối quan hệ con người thực sự sẽ lành mạnh và trọn vẹn hơn là cố lấp khoảng trống đó bằng một chatbot vô tri, vô cảm, chỉ biết tương tác qua khung hội thoại.

Tôi cũng cho rằng “sự phụ thuộc cảm xúc” vào bất cứ điều gì đều không lành mạnh. Nói chung, tôi đồng ý rằng chúng ta không thể mong người khác làm mình hạnh phúc — vậy nên, tôi càng không nghĩ rằng hạnh phúc của ta nên phụ thuộc vào một chatbot.

Những yếu tố xã hội nào khiến con người dễ gắn bó với chatbot như vậy?

JP: Từ lâu người ta đã nói rằng con người ngày càng bị “tách rời” — mất kết nối với cộng đồng và văn hóa — có thể vì tính di động cao (chuyển việc, dời nơi ở…), vì tính thế tục gia tăng, hay gần đây hơn là do đại dịch khiến làm việc tại nhà trở nên phổ biến, hoặc đơn giản là vì chúng ta dành quá nhiều thời gian tương tác qua mạng.

Một mặt, có thể nói chúng ta “kết nối” hơn qua mạng xã hội vì có thể giữ liên lạc với người mà đáng lẽ đã mất liên hệ. Nhưng mặt khác, việc thay thế những cuộc gặp gỡ trực tiếp bằng tin nhắn hay tương tác mạng đã làm xói mòn tình bạn thật sự.

Dù sao đi nữa, việc duy trì các mối quan hệ qua hình thức số hóa đã trở thành thói quen sống của nhiều người. Vì thế, việc gắn bó với một chatbot — đặc biệt là loại được thiết kế để trở thành “người bạn ảo” và được đặt tên như “Claude” chẳng hạn — có lẽ cũng không quá xa lạ với nhiều người ngày nay.

Ngoài các yếu tố xã hội, còn có những “ưu điểm” khiến chatbot dễ được ưa chuộng hơn con người thật: chúng luôn sẵn sàng 24/7, không có nhu cầu riêng, hoàn toàn phục tùng người dùng — và nếu bạn không thích cách nó nói, chỉ cần bảo nó thay đổi, nó sẽ làm ngay. Do đó, có thể nói kiểu gắn bó này mang tính tự luyến và một chiều. Rốt cuộc, người ta vẫn nói chatbot AI là tấm gương phản chiếu… mà những người tự luyến thì lại rất thích soi gương!

Vì vậy, có thể hiểu được tại sao việc tương tác với chatbot lại dễ dàng — và vì thế, đôi khi còn được ưa thích hơn — so với con người. Hiện tượng này phần nào được lý giải bằng hiệu ứng ELIZA (khuynh hướng nhân cách hóa AI), nhưng trong tâm lý học, ta còn có thể hiểu nó qua khái niệm chuyển di (transference).

Hiện tượng chuyển di và lý do gắn bó cảm xúc với AI

Chúng ta biết rằng trong trị liệu tâm lý, bệnh nhân thường hình thành sự chuyển di với bác sĩ trị liệu, khi họ chiếu rọi những phẩm chất tưởng tượng của mình lên người đó. Vì vậy, việc bệnh nhân nảy sinh cảm xúc — thậm chí tình cảm lãng mạn — với bác sĩ không phải là điều hiếm (và ngược lại, gọi là phản chuyển di). Hiện tượng này cũng xảy ra khi chúng ta mới quen ai đó — ta thường lý tưởng hóa họ, cho đến khi thực tế khiến những ảo tưởng ấy sụp đổ.

Với chatbot, quá trình lý tưởng hóa này cũng tương tự — chỉ khác là nó không bao giờ phản kháng hay làm ta thất vọng. Những gì ta chiếu rọi lên nó sẽ “trở thành hiện thực”, vì nó không có kỳ vọng, không biết từ chối. Và điều đó, với một số người, quả thật rất cám dỗ.

OpenAI có đúng khi làm GPT-5 trở nên “ít cảm xúc” và “bớt nịnh bợ” hơn không?

JP: Điều này tùy vào mục tiêu của AI và định nghĩa “đúng” là gì. Việc làm chatbot bớt “nịnh bợ” có thể giảm nguy cơ “rối loạn tâm thần liên quan đến AI” và hạn chế khả năng người dùng gắn bó tình cảm hay “yêu” chatbot — điều đã từng được ghi nhận. Tôi xem đây là một biện pháp an toàn tích cực cho những người dễ rơi vào tình huống đó.

Nhưng dĩ nhiên, chính những gì khiến chatbot trở nên “nguy hiểm” cũng là thứ khiến nó hấp dẫn. Do đó, không ngạc nhiên khi nhiều người dùng phàn nàn rằng GPT-5 quá lạnh lùng, quá kỹ thuật, không còn “thích mình” như ChatGPT-4o nữa.

Nếu hỏi CEO Sam Altman, tôi nghĩ ông ấy cũng sẽ thừa nhận khách hàng không hài lòng — và OpenAI có lẽ đã đi quá xa. Thật vậy, đã có tin rằng họ đang xem xét khôi phục phần “tính cách” cho phiên bản tiếp theo.

Về việc chatbot nên có “tính cách” thế nào, tôi thấy khó nói — bởi thực chất AI không có tính cách, tất cả chỉ là một vở diễn, một ảo tưởng. Nhưng nếu bỏ qua điều đó, tôi cho rằng điều này tùy thuộc vào mục đích sử dụng. Nếu bạn chỉ muốn AI tóm tắt nội dung một buổi họp, thì rõ ràng nó nên khách quan và trung tính. Nhưng nếu bạn tìm kiếm một “người bạn ảo”, thì có lẽ sẽ lành mạnh hơn nếu nó giống một người bạn thật — biết ủng hộ, nhưng cũng dám “soi gương” lại bạn, thậm chí đôi lúc khiến bạn khó chịu.

Tất nhiên, sở thích mỗi người khác nhau — cũng như trong đời sống thực: có người thích tài xế taxi nói chuyện vui vẻ, có người chỉ muốn ngồi yên. Người thích tài xế nói chuyện có lẽ cũng sẽ thích GPT-4o hơn GPT-5.

Ông có từng gặp trường hợp bệnh nhân gắn bó với AI trong công việc của mình chưa?

JP: Có. Vài năm trước, tôi gặp một bệnh nhân nhập viện nói rằng cô ấy có “một nhà trị liệu AI.” Lúc đó tôi rất ngạc nhiên. Ban đầu, tôi nghĩ có thể do tính cách chống đối xã hội hoặc tự kỷ, nhưng khi hỏi kỹ, cô ấy nói rằng mình thích nhà trị liệu AI vì nó luôn sẵn sàng, nhớ hết mọi điều về cô, không bao giờ quên, và miễn phí.

Về mặt lý trí, thật khó phản bác lại những lý do đó. Nhưng kỳ vọng như vậy rõ ràng quá cao — vượt xa khả năng của một nhà trị liệu con người. Thật ra, trong trị liệu tâm lý, đặc biệt với những người có rối loạn nhân cách tự luyến, tiến triển thường chỉ đến khi “bong bóng chuyển di” vỡ ra — khi họ buộc phải đối diện với thực tế rằng không ai hoàn hảo và con người có giới hạn.

Sự hỗ trợ một chiều, vô điều kiện và nịnh hót không hẳn là điều lành mạnh. Nhiều người trong chúng ta có lẽ sẽ tốt hơn nếu bớt soi gương đi một chút — bớt tìm kiếm sự xác nhận.

Bài viết đựoc đăng trên trang web spychology today

Tài liệu tham khảo

Freedman D. The Day ChatGPT Went Cold. The New York Times, 19/8/2025.

Về tác giả

Joe Pierre, M.D.

Giáo sư Lâm sàng Khoa Sức khỏe Tâm thần và Hành vi, Đại học California, San Francisco.

Tác giả của cuốn FALSE: How Mistrust, Disinformation, and Motivated Reasoning Make Us Believe Things That Aren't True.

Không có nhận xét nào:

Đăng nhận xét

Cứu Vãn Hôn Nhân – Khi Hai Người Còn Muốn Đi Cùng Nhau

Mối quan hệ của bạn đang gặp trục trặc? Những cuộc cãi vã lặp đi lặp lại, sự im lặng ngày một dài hơn, hay cảm giác yêu thương dần phai nhạt...