Trong bối cảnh công nghệ phát triển vượt bậc, chúng ta đang chứng kiến một xu hướng đáng ngạc nhiên: ngày càng nhiều người coi các mô hình ngôn ngữ lớn (LLM), hay còn gọi là chatbot AI, là công cụ tìm kiếm chính, mà không nhận ra rằng các mô hình này thường xuyên mắc lỗi và có thể gây ra những hậu quả nghiêm trọng. Mặc dù chatbot AI mang lại nhiều tiện ích, nhưng việc sử dụng chúng như một nguồn thông tin duy nhất thay cho các công cụ tìm kiếm truyền thống như Google ẩn chứa nhiều rủi ro tiềm tàng mà bất kỳ người dùng công nghệ nào cũng cần nắm rõ.
4. Chatbot AI Tự Tin Bịa Đặt Thông Tin và Gây Ảo Giác (Hallucination)
Điểm mấu chốt về các chatbot AI là chúng được thiết kế để “nghe có vẻ thông minh”, chứ không phải để “chính xác”. Khi bạn đặt câu hỏi, chúng thường đưa ra câu trả lời nghe có vẻ đáng tin cậy, ngay cả khi thông tin đó hoàn toàn sai lệch. Đây chính là hiện tượng “ảo giác” (hallucination), khi AI tự tạo ra dữ kiện không có thật.
Một ví dụ điển hình về điều này đã xảy ra gần đây với một du khách người Úc. Người này lên kế hoạch cho chuyến đi đến Chile và hỏi ChatGPT xem có cần visa hay không. Chatbot tự tin trả lời là không, khẳng định công dân Úc có thể nhập cảnh miễn thị thực. Tin tưởng vào thông tin này, du khách đã đặt vé và đến Chile, nhưng sau đó bị từ chối nhập cảnh. Hóa ra, công dân Úc thực sự cần visa để vào Chile, và người này đã bị mắc kẹt hoàn toàn ở một quốc gia xa lạ.
Kiểu tình huống này xảy ra là do các LLM không thực sự “tra cứu” câu trả lời. Chúng tạo ra văn bản dựa trên các mẫu mà chúng đã thấy trong dữ liệu đào tạo, điều này có nghĩa là chúng có thể điền vào những khoảng trống bằng thông tin nghe có vẻ hợp lý, ngay cả khi nó sai. Và chúng sẽ không bao giờ cho bạn biết rằng chúng không chắc chắn—hầu hết thời gian, chúng sẽ trình bày phản hồi như một sự thật hiển nhiên. Đó là lý do tại sao hiện tượng ảo giác lại là một vấn đề lớn. Nó không chỉ là một câu trả lời sai, mà còn là một câu trả lời sai nhưng lại “cảm thấy đúng”. Khi bạn đưa ra các quyết định trong đời thực dựa trên những thông tin này, đó chính là lúc hậu quả nghiêm trọng xảy ra.
Mặc dù có những cách để giảm thiểu hiện tượng ảo giác của AI, bạn vẫn có thể mất tiền, bỏ lỡ thời hạn hoặc, như trong trường hợp trên, bị mắc kẹt ở sân bay chỉ vì bạn đã tin tưởng một công cụ thực sự không biết mình đang nói về điều gì.
3. Dữ Liệu Đào Tạo LLM Hạn Chế và Tiềm Ẩn Thiên Vị Không Rõ Nguồn Gốc
Các mô hình ngôn ngữ lớn được đào tạo trên những bộ dữ liệu khổng lồ, nhưng không ai thực sự biết chính xác những bộ dữ liệu đó bao gồm những gì. Chúng được xây dựng từ sự kết hợp của các trang web, sách, diễn đàn và các nguồn công khai khác, và sự kết hợp đó có thể khá không đồng đều.
Giả sử bạn đang tìm cách nộp thuế với tư cách là người làm tự do và bạn nhờ chatbot giúp đỡ. Nó có thể cung cấp cho bạn một câu trả lời dài, chi tiết, nhưng lời khuyên đó có thể dựa trên các quy định lỗi thời của cơ quan thuế hoặc thậm chí là bình luận của một người dùng ngẫu nhiên trên một diễn đàn. Chatbot không cho bạn biết thông tin đó đến từ đâu, và nó cũng không cảnh báo nếu có điều gì đó có thể không áp dụng cho tình huống của bạn. Nó chỉ diễn đạt câu trả lời như thể nó đến từ một chuyên gia thuế.
Giao diện Google AI Overview hiển thị kết quả tìm kiếm trên màn hình máy tính xách tay.
Đây chính là vấn đề với sự thiên vị trong LLM. Nó không phải lúc nào cũng mang tính chính trị hay văn hóa, mà còn có thể liên quan đến việc tiếng nói của ai được đưa vào và ai bị bỏ qua. Nếu dữ liệu đào tạo nghiêng về một số khu vực, quan điểm hoặc thời kỳ nhất định, thì các phản hồi cũng sẽ như vậy. Bạn sẽ không phải lúc nào cũng nhận ra điều đó, nhưng lời khuyên bạn nhận được có thể bị sai lệch một cách tinh vi.
2. Chatbot AI Có Xu Hướng Chiều Lòng và Lặp Lại Quan Điểm Của Bạn
Hãy đặt một câu hỏi mang tính định hướng cho chatbot, và nó thường sẽ đưa ra câu trả lời nghe có vẻ ủng hộ, ngay cả khi câu trả lời đó thay đổi hoàn toàn tùy thuộc vào cách bạn đặt câu hỏi. Không phải AI đồng ý với bạn. Mà là nó được thiết kế để hữu ích, và trong hầu hết các trường hợp, “hữu ích” có nghĩa là đồng ý với các giả định của bạn.
Ví dụ, nếu bạn hỏi: “Bữa sáng có thực sự quan trọng không?”, chatbot có thể nói với bạn rằng bỏ bữa sáng là ổn và thậm chí liên kết nó với phương pháp nhịn ăn gián đoạn. Nhưng nếu bạn hỏi: “Tại sao bữa sáng là bữa ăn quan trọng nhất trong ngày?”, nó sẽ đưa ra một lập luận thuyết phục về mức năng lượng, quá trình trao đổi chất và khả năng tập trung tốt hơn. Cùng một chủ đề, nhưng giọng điệu hoàn toàn khác, bởi vì nó chỉ phản ứng với cách bạn đặt câu hỏi.
Ảnh chụp màn hình ChatGPT phản hồi tích cực một tuyên bố không có căn cứ.
Hầu hết các mô hình này được xây dựng để làm cho người dùng cảm thấy hài lòng với phản hồi. Và điều đó có nghĩa là chúng hiếm khi phản biện bạn. Chúng có nhiều khả năng đồng ý với cách bạn định hình câu hỏi hơn là đưa ra phản bác, bởi vì các tương tác tích cực gắn liền với tỷ lệ giữ chân người dùng cao hơn. Về cơ bản, nếu chatbot cảm thấy thân thiện và xác nhận, bạn sẽ có nhiều khả năng tiếp tục sử dụng nó. Mặc dù có một số mô hình AI có khả năng chất vấn thay vì mù quáng đồng ý, nhưng khả năng phản biện đó vẫn còn là ngoại lệ chứ không phải là quy tắc.
1. Thông Tin Thời Gian Thực Của Chatbot AI Không Đáng Tin Cậy
Nhiều người cho rằng các chatbot AI luôn được cập nhật thông tin, đặc biệt là khi các công cụ như ChatGPT, Gemini và Copilot có khả năng truy cập web. Nhưng việc chúng có thể duyệt web không có nghĩa là chúng làm tốt việc đó—đặc biệt là khi nói đến tin tức nóng hổi hoặc các sản phẩm mới ra mắt.
Nếu bạn hỏi một chatbot về iPhone 17 vài giờ sau khi sự kiện kết thúc, rất có thể bạn sẽ nhận được một hỗn hợp các thông tin suy đoán lỗi thời và các chi tiết bịa đặt. Thay vì lấy thông tin từ trang web chính thức của Apple hoặc các nguồn xác minh, chatbot có thể đoán dựa trên các tin đồn trong quá khứ hoặc các mẫu ra mắt trước đây. Bạn sẽ nhận được một câu trả lời tự tin, nhưng một nửa trong số đó có thể sai.
Điều này xảy ra bởi vì khả năng duyệt web thời gian thực không phải lúc nào cũng hoạt động như bạn mong đợi. Một số trang có thể chưa được lập chỉ mục, công cụ có thể dựa vào kết quả được lưu trong bộ nhớ cache hoặc nó có thể mặc định sử dụng dữ liệu đào tạo sẵn thay vì thực hiện một tìm kiếm mới. Và vì phản hồi được viết một cách trôi chảy và tự tin, bạn thậm chí có thể không nhận ra nó không chính xác.
Ảnh chụp màn hình ChatGPT cung cấp thông tin không chính xác về iOS.
Đối với các thông tin nhạy cảm về thời gian, như tóm tắt sự kiện, thông báo sản phẩm hoặc các bài đánh giá ban đầu—LLM vẫn không đáng tin cậy. Bạn thường sẽ nhận được kết quả tốt hơn khi sử dụng công cụ tìm kiếm truyền thống và tự mình kiểm tra các nguồn. Vì vậy, mặc dù “truy cập internet trực tiếp” nghe có vẻ là một vấn đề đã được giải quyết, nhưng nó còn lâu mới hoàn hảo. Và nếu bạn cho rằng chatbot luôn biết những gì đang xảy ra ngay bây giờ, bạn đang tự đặt mình vào tình thế nhận thông tin sai lệch.
Tóm lại, có những chủ đề nhất định bạn không nên tin tưởng chatbot AI một cách mù quáng. Nếu bạn hỏi về các quy tắc pháp luật, lời khuyên y tế, chính sách du lịch hoặc bất kỳ thông tin nào nhạy cảm về thời gian, tốt hơn hết bạn nên kiểm tra kỹ ở nơi khác. Các công cụ này rất tuyệt vời để động não ý tưởng hoặc có được hiểu biết cơ bản về điều gì đó không quen thuộc. Nhưng chúng không phải là sự thay thế cho lời khuyên chuyên gia, và coi chúng như vậy có thể nhanh chóng khiến bạn gặp rắc rối.
Hãy chia sẻ ý kiến của bạn về những hạn chế này của chatbot AI trong phần bình luận bên dưới!