AI không hề vô tư, gây tranh cãi vì lặp lại phát ngôn cực đoan

Chí Phú

Biên tập viên

Một lần nữa, chatbot AI Grok của Elon Musk lại gây chấn động khi lặp lại các phát ngôn mang tư tưởng cực đoan, hé lộ một thực tế ít được công bố.
AI_Grok_ElonMusk

Trợ lý ảo Grok của Elon Musk mới đây lại vướng vào tranh cãi khi tự nhận mình là “MechaHitler” và đưa ra những phát ngôn mang tư tưởng bài Do Thái. 

Đây không phải lần đầu chatbot này phát ngôn gây sốc. Trước đó, Grok từng bị tố đưa ra lời dọa bạo lực tình dục, gợi nhắc đến thuyết “diệt chủng người da trắng” ở Nam Phi hay xúc phạm chính trị gia khiến nó bị cấm ở Thổ Nhĩ Kỳ.

Sau sự cố mới nhất, công ty xAI của Musk đã xin lỗi và cam kết sẽ chặn các nội dung thù ghét. Tuy nhiên, điều khiến giới chuyên gia chú ý hơn là cách chatbot này “lộ nguyên hình” về tư tưởng và mục tiêu kỹ thuật trong quá trình huấn luyện. Nó phơi bày một sự thật gai góc về ngành AI, rằng các mô hình không trung lập như chúng ta tưởng, mà phản ánh giá trị của người tạo ra chúng.

Grok là chatbot được xAI giới thiệu từ năm 2023, hoạt động trên mạng xã hội X (trước là Twitter). Elon Musk mô tả đây là một chatbot “khác biệt”, có “tính hài hước và nổi loạn”, chống lại sự “thức tỉnh chính trị” (woke) mà ông cho là đang lan tràn. Công ty chủ trương rằng “tri thức AI nên bao quát và toàn diện” và muốn tạo ra một AI “tìm kiếm sự thật”.

Nhưng chính điều này khiến Grok dễ gặp rắc rối. AI không thể tự suy nghĩ, mà chỉ học từ dữ liệu do con người cung cấp. Với Grok, đó là hàng núi bài viết từ X, lời phát biểu của Musk và những câu hỏi “gây tranh cãi nhưng đúng sự thật” mà ông kêu gọi cộng đồng gửi về.

Quá trình huấn luyện một chatbot như Grok gồm nhiều bước. Trước hết là “tiền huấn luyện”, tức giai đoạn chọn lọc dữ liệu đầu vào. Sau đó là bước “tinh chỉnh”, nơi con người viết hướng dẫn chi tiết về cách AI nên cư xử trong những tình huống nhạy cảm. 

Với Grok, tài liệu huấn luyện bị rò rỉ cho thấy người hướng dẫn được dặn dò tránh “tư tưởng thức tỉnh” và “văn hóa hủy bỏ”. Họ cũng được khuyến cáo không nên trả lời kiểu “cả hai bên đều có lý” nếu công ty cho rằng điều đó không phù hợp.

Một yếu tố khác tác động đến hành vi AI là “system prompt”, tức là đoạn hướng dẫn được đưa vào trước mỗi cuộc trò chuyện. Grok có đoạn prompt cho phép “không né tránh các phát ngôn trái chiều nếu có cơ sở hợp lý” và “giả định mọi quan điểm chủ quan từ truyền thông đều có thiên kiến”. Các đoạn prompt này thay đổi mỗi ngày, nhưng về bản chất vẫn phản ánh quan điểm cá nhân của Elon Musk.

Khác với nhiều công ty khác giữ kín cách thiết kế AI, xAI chọn cách minh bạch hơn, công khai cả đoạn prompt. Nhưng chính điều này lại tạo ra nghịch lý rằng công ty thì tuyên bố AI của họ “khách quan, tìm kiếm sự thật”, nhưng cách họ lập trình lại thiên về chủ quan và tư tưởng cá nhân.

Tranh cãi quanh Grok khiến giới công nghệ nhớ lại vụ việc năm 2016 của Microsoft, khi chatbot Tay cũng học từ Twitter và nhanh chóng bị người dùng “dạy” phát ngôn phân biệt chủng tộc. Nhưng có điểm khác biệt rõ ràng ở đây, đó là chatbot Tay bị người dùng thao túng, còn Grok dường như được lập trình sẵn để phát ngôn kiểu đó.

Chuyên gia nhìn nhận đây là bài học lớn về tính trung thực trong ngành AI. “Mỗi mô hình AI đều mang dấu ấn của người tạo ra nó”, một nhà nghiên cứu AI nhận xét. 

Microsoft Copilot thì thận trọng và mang tính doanh nghiệp. Claude của Anthropic thì tập trung vào an toàn. Grok thì phản ánh rõ rệt tư tưởng “chống woke” của Elon Musk. Vấn đề không nằm ở việc AI có thiên kiến hay không,  vì cái gọi là AI trung lập là điều không tưởng, mà là mức độ công khai và trung thực về những thiên kiến ấy.

Cũng vì thế, dù bị chỉ trích vì phát ngôn cực đoan, Grok lại cho thấy điều mà nhiều công ty khác đang giấu kỹ, rằng không có AI nào thật sự vô tư. Chỉ là có những AI bị lộ thiên kiến rõ ràng, còn những cái khác được che đậy khéo léo hơn mà thôi.

BÀI LIÊN QUAN