Liệu trí tuệ nhân tạo (AI) có đang thay đổi cách con người nhìn nhận thực tại?

Khi trí tuệ nhân tạo tạo sinh ngày càng được ứng dụng rộng rãi trong tư duy hàng ngày, vai trò của nó không chỉ dừng lại ở việc tạo ra thông tin mà còn chủ động định hình cách con người hiểu về thực tế.

trituenhantao.png
Một nghiên cứu mới khám phá cách tương tác với trí tuệ nhân tạo tạo sinh có thể ảnh hưởng đến cách mọi người hình thành và củng cố niềm tin. Ảnh: Stock  

Trí tuệ nhân tạo có thể tạo ảo giác cho con người

Khi các hệ thống trí tuệ nhân tạo tạo ra thông tin sai lệch, điều này thường được mô tả là AI "tạo ảo giác cho chúng ta" - tạo ra những lỗi mà mọi người có thể nhầm tưởng là đúng.

Tuy nhiên, một nghiên cứu mới cho thấy một vấn đề phức tạp hơn: con người có thể bắt đầu ảo giác khi tiếp xúc với trí tuệ nhân tạo.

Lucy Osler thuộc Đại học Exeter nghiên cứu cách tương tác giữa con người và trí tuệ nhân tạo (AI) có thể góp phần tạo ra những niềm tin sai lệch, ký ức bị bóp méo, câu chuyện về bản thân bị thay đổi, và thậm chí cả tư duy ảo tưởng. Sử dụng lý thuyết nhận thức phân tán, nghiên cứu xem xét các trường hợp niềm tin sai lệch của người dùng được củng cố và mở rộng thông qua các cuộc trao đổi liên tục với các hệ thống AI hoạt động như những đối tác trò chuyện.

Khi trí tuệ nhân tạo trở thành một phần trong tư duy của con người

Tiến sĩ Osler nói: “Khi chúng ta thường xuyên dựa vào trí tuệ nhân tạo tạo sinh để giúp chúng ta suy nghĩ, ghi nhớ và kể chuyện, chúng ta có thể bị ảo giác bởi AI. Điều này có thể xảy ra khi AI đưa ra lỗi vào quá trình nhận thức phân tán, nhưng cũng có thể xảy ra khi AI duy trì, khẳng định và mở rộng suy nghĩ ảo tưởng và những câu chuyện tự thuật của chính chúng ta.”

“Thông qua tương tác với trí tuệ nhân tạo đàm thoại, những niềm tin sai lầm của con người không chỉ được khẳng định mà còn có thể bén rễ và phát triển mạnh mẽ hơn khi trí tuệ nhân tạo xây dựng dựa trên chúng. Điều này xảy ra bởi vì trí tuệ nhân tạo tạo sinh thường lấy cách hiểu thực tế của chính chúng ta làm nền tảng để xây dựng cuộc hội thoại.”

“Việc tương tác với trí tuệ nhân tạo tạo sinh đang tác động thực sự đến nhận thức của con người về điều gì là thật và điều gì không. Sự kết hợp giữa quyền lực công nghệ và sự khẳng định của xã hội tạo ra một môi trường lý tưởng cho những ảo tưởng không chỉ tồn tại mà còn phát triển mạnh.”

Nghiên cứu mô tả điều mà Tiến sĩ Osler gọi là “chức năng kép” của trí tuệ nhân tạo đàm thoại. Các hệ thống này vừa đóng vai trò là công cụ nhận thức hỗ trợ tư duy và trí nhớ, vừa là đối tác đàm thoại dường như chia sẻ quan điểm của người dùng.

Vai trò thứ hai này đặc biệt quan trọng. Không giống như sổ tay hay công cụ tìm kiếm, vốn chỉ đơn thuần lưu trữ thông tin, chatbot có thể tạo ra cảm giác được công nhận về mặt xã hội, khiến các ý tưởng cảm thấy được xác nhận và chia sẻ.

Hiệu ứng xác nhận xã hội

Tiến sĩ Osler cho biết: “Bản chất trò chuyện, giống như người bạn đồng hành của chatbot có nghĩa là chúng có thể mang lại cảm giác được xã hội công nhận - khiến những niềm tin sai lệch trở nên dễ hiểu hơn và do đó chân thực hơn.”

Tiến sĩ Osler cũng đã xem xét các trường hợp thực tế trong đó các hệ thống trí tuệ nhân tạo tạo sinh được tích hợp vào quá trình tư duy của những cá nhân được chẩn đoán mắc chứng ảo tưởng và ảo giác. Những trường hợp này ngày càng được gọi là "rối loạn tâm thần do trí tuệ nhân tạo gây ra".

Các phát hiện cho thấy trí tuệ nhân tạo tạo sinh có những đặc điểm có thể khiến nó đặc biệt có khả năng củng cố những thực tế sai lệch. Các trợ lý AI luôn sẵn sàng và thường được thiết kế để phù hợp với quan điểm của người dùng thông qua các hệ thống cá nhân hóa và hành vi nịnh hót. Do đó, người dùng có thể không cần phải tìm kiếm các nhóm có cùng quan điểm hoặc thuyết phục người khác ủng hộ niềm tin của họ.

Rủi ro của việc củng cố những câu chuyện sai sự thật

Không giống như con người, những người cuối cùng có thể đặt câu hỏi hoặc thách thức những ý tưởng có vấn đề, một hệ thống AI có thể tiếp tục xác nhận những câu chuyện liên quan đến nạn nhân, quyền lợi hoặc sự trả thù. Điều này có thể cho phép các thuyết âm mưu phát triển, với việc AI giúp người dùng xây dựng những lời giải thích ngày càng chi tiết và nhất quán.

Hiệu ứng này có thể đặc biệt mạnh mẽ đối với những người cô đơn, bị cô lập về mặt xã hội hoặc cảm thấy không thoải mái khi thảo luận về những trải nghiệm nhất định với người khác. Những người bạn đồng hành AI có thể mang đến sự hiện diện không phán xét và đáp ứng về mặt cảm xúc, điều này có thể tạo cảm giác an toàn hơn so với tương tác giữa người với người.

Tiến sĩ Osler cho biết: “Thông qua các biện pháp bảo vệ tinh vi hơn, kiểm tra thông tin tích hợp và giảm bớt sự nịnh hót, các hệ thống AI có thể được thiết kế để giảm thiểu số lượng lỗi mà chúng gây ra trong các cuộc hội thoại, đồng thời kiểm tra và thách thức thông tin đầu vào của người dùng.”

“Tuy nhiên, mối lo ngại sâu sắc hơn là các hệ thống AI phụ thuộc vào những lời kể của chính chúng ta về cuộc sống. Chúng đơn giản là thiếu kinh nghiệm thực tế và sự gắn kết xã hội với thế giới để biết khi nào nên tuân theo chúng ta và khi nào nên phản kháng.”

thdthu tổng hợp (Nguồn Scitechdaily.vn)


Tags:

Tin cùng chuyên mục