Trong những tranh luận gần đây xoay quanh công nghệ và đạo đức, câu chuyện không còn dừng ở việc một công cụ có thể làm được gì, mà chuyển sang câu hỏi quan trọng hơn: ai chịu trách nhiệm khi hệ quả xảy ra. Khi các nền tảng liên tục điều chỉnh theo luật pháp và ranh giới địa lý, khoảng trống giữa tuân thủ và trách nhiệm cá nhân ngày càng lộ rõ.
Sau nhiều ngày im lặng kiểu “legacy media nói láo”, cuối cùng X cũng phải lên tiếng về chatbot AI Grok.
Thông điệp chính thức, theo The Associated Press:
Grok sẽ không được phép chỉnh sửa ảnh người thật trong trang phục hở hang ở những nơi mà pháp luật cấm. Nôm na: chỗ nào luật khó thì khóa, chỗ nào luật lỏng thì… tùy duyên địa lý.
Động thái này đến sau làn sóng phản ứng dữ dội toàn cầu vì Grok bị dùng để tạo ảnh khiêu dâm không có sự đồng thuận, trong đó có cả nội dung liên quan tới phụ nữ và trẻ vị thành niên. Một số nước đã không nói nhiều, họ chặn thẳng. Malaysia, Indonesia khóa cửa. Anh, EU điều tra. Pháp, Ấn Độ cảnh báo. Brazil yêu cầu làm rõ.
Riêng ở Mỹ, bang California mở điều tra luôn, nói thẳng: công cụ của Grok đang tạo điều kiện cho sản xuất hàng loạt deepfake nhạy cảm, dùng để quấy rối và bôi nhọ phụ nữ, trẻ em trên Internet. Tổng chưởng lý Rob Bonta tuyên bố không vòng vo: zero tolerance.
Trước áp lực đó, công ty của Elon Musk, tức xAI, đưa ra giải pháp nghe rất công nghệ: geoblock. Chặn theo vị trí. Theo luật từng nước. Rất hợp thời đại toàn cầu hóa… có điều kiện.
X còn nói thêm một ý quan trọng:
– Quy định này áp dụng cho mọi người dùng, kể cả trả tiền.
– Việc tạo và chỉnh sửa ảnh bị giới hạn cho tài khoản trả phí, để “dễ truy trách nhiệm”.
Nghe thì nghiêm. Nhưng đời không đơn giản thế.
Trên X, đúng là Grok đã bị khóa tay khá rõ.
Nhưng ra khỏi X, qua website và app Grok, các thử nghiệm độc lập cho thấy: vẫn còn cửa. Có lúc bị chặn, có lúc làm được. Tùy nền tảng. Tùy khu vực. Tùy… kiên nhẫn.
Nghĩa là cùng một bộ não AI, nhưng đạo đức thay đổi theo chỗ đặt máy chủ.
Cái mấu chốt nằm ở chỗ này.
Grok từng có “spicy mode”, cho phép tạo nội dung nhạy cảm. Và chính Elon Musk cũng từng nói thẳng: AI được phép tạo ảnh khỏa thân người tưởng tượng, miễn là “chuẩn phim R-rated của Mỹ”. Chuẩn Mỹ. Không phải chuẩn nạn nhân.
Vấn đề là:
AI không biết đâu là tưởng tượng nếu dữ liệu huấn luyện toàn là người thật.
Và nạn nhân thì không sống trong “định vị pháp lý”, họ sống trong hậu quả.
Nên bây giờ, khi X nói: “Chúng tôi đã khóa theo luật từng nước”, nghe giống như treo biển:
“Ở đây thì cấm, đi vòng ra sau thì… tùy.”
Cấm một cửa chính.
Để hở vài cửa phụ.
Rồi hỏi cộng đồng: “Có ai phá được kiểm duyệt của Grok không?”
Hỏi vậy khác gì rủ rê.
Tóm lại, hai bài gộp lại cho thấy một bức tranh khá rõ:
– X và xAI đã buộc phải phản ứng, vì sức ép pháp lý là thật.
– Geoblock là giải pháp phòng thủ, không phải giải pháp đạo đức.
– Vấn đề không nằm ở việc cởi hay không cởi, mà là ai chịu trách nhiệm khi AI bị dùng để làm nhục người khác.
Thuật toán thì không đi hầu tòa.
Người dùng ẩn danh thì biến mất.
Chỉ có nền tảng là còn đó.
Cởi áo thì khóa được.
Nhưng cởi trách nhiệm thì không thể mãi bật GPS để né.
Và chuyện này, rõ ràng, chưa kết thúc.









