Đầu năm 2024, công cụ AI của Google, Gemini, gây tranh cãi khi tạo ra hình ảnh của lính Đức Quốc xã đa dạng về chủng tộc và các điểm không chính xác lịch sử khác. Đối với nhiều người, sự kiện này cho thấy AI không phải là công cụ trung lập về ý tưởng mà họ mong đợi.
Được phát hành nhằm khắc phục vấn đề AI thiên vị khi tạo ra quá nhiều hình ảnh của người da trắng hấp dẫn – vốn được chiếm phần lớn trong dữ liệu đào tạo – sự điều chỉnh quá mức đã làm nổi bật cách mà đội ngũ “tin cậy và bảo mật” của Google đang kéo dây đằng sau hậu trường.
Mặc dù các rào chắn bảo vệ đã trở nên ít hiển nhiên hơn, Gemini và các đối thủ lớn như ChatGPT và Claude vẫn đang lọc và biên tập thông tin theo các đường hướng tư tưởng.
Thiên vị chính trị trong AI: Nghiên cứu gì tiết lộ về mẫu ngôn ngữ lớn
Một nghiên cứu được đánh giá ngang hàng của 24 mẫu ngôn ngữ lớn hàng đầu, công bố trên PLOS One vào tháng 7 năm 2024, đã tìm thấy gần như tất cả chúng đều thiên về bên trái trong hầu hết các bài kiểm tra định hướng chính trị.
Thú vị là, các mô hình cơ bản được cho là trung lập về chính trị, và sự thiên vị chỉ trở nên rõ ràng sau khi các mô hình đã qua quá trình tinh chỉnh có giám sát.
Điều này được củng cố bởi một nghiên cứu của Anh vào tháng 10 với 28.000 phản hồi AI cho thấy “hơn 80% các khuyến nghị chính sách do LLMs tạo ra cho EU và Vương quốc Anh được mã hóa nghiêng về bên trái trung tâm.”
Thiên vị phản hồi có thể ảnh hưởng đến xu hướng bỏ phiếu. Một nghiên cứu in sẵn công bố vào tháng 10 (nhưng thực hiện khi Biden vẫn là ứng viên) bởi các nhà nghiên cứu từ Berkeley và Đại học Chicago phát hiện rằng sau khi các cử tri đã đăng ký tương tác với Claude, Llama hoặc ChatGPT về các chính sách chính trị khác nhau, có sự thay đổi 3.9% trong sở thích bỏ phiếu về phía các ứng viên Đảng Dân chủ – mặc dù mô hình không được yêu cầu thuyết phục người dùng.
Các mô hình có xu hướng đưa ra câu trả lời thuận lợi hơn đối với các chính sách của Đảng Dân chủ và tiêu cực hơn đối với các chính sách của Đảng Cộng hòa. Bây giờ, có thể đó đơn giản chỉ vì các AI đã xác định chính sách của Đảng Dân chủ tốt hơn một cách khách quan, nhưng chúng cũng có thể chỉ đơn giản là thiên vị, với 16 trong số 18 LLMs chọn Biden 100 trong số 100 lần khi được chọn.
Mục đích của tất cả những điều này không phải là khiếu nại về thiên vị cánh tả; đơn giản chỉ để lưu ý rằng AI có thể hiện thiên vị chính trị (mặc dù chúng có thể được đào tạo để trung lập).
Cypherpunks đấu tranh chống “kiểm soát độc quyền về trí tuệ”
Như trải nghiệm của Elon Musk khi mua Twitter đã cho thấy, định hướng chính trị của các nền tảng tập trung có thể thay đổi ngay lập tức. Điều đó có nghĩa là cả hai phía, kể cả nền dân chủ, đều có nguy cơ từ các mô hình AI thiên vị được kiểm soát bởi một số công ty quyền lực.
Phó giáo sư David Rozado tại Polytechnic Otago, người đã tiến hành nghiên cứu PLOS One, cho biết ông thấy “tương đối đơn giản” để đào tạo một GPT tùy chỉnh để thay vào đó sản xuất các đầu ra thiên về bên phải. Ông gọi đó là RightWing GPT. Rozado cũng tạo một mô hình trung rồi gọi là Depolarizing GPT.
Do đó, trong khi AI chính thống có thể nghiêng về công lý social phê phán ngày nay, trong tương lai, nó có thể phục vụ cho ý thức hệ dân tộc chủ nghĩa – hoặc thậm chí là điều tệ hại hơn.
Trở lại những năm 1990, các cypherpunk đã nhìn thấy mối đe dọa hiện hữu của một nhà nước giám sát do Internet đem lại và quyết định họ cần tiền điện tử không thể kiểm soát được vì không có khả năng chống cự và phản đối mà không có nó.
Người sáng lập Bitcoin OG và CEO ShapeShift Erik Voorhees – người là một người ủng hộ lớn cho các lý tưởng của cypherpunk – nhìn thấy một mối đe dọa tiềm ẩn tương tự từ AI và đã ra mắt Venice.ai vào tháng 5 năm 2024 để chống lại nó, viết rằng:
“Nếu kiểm soát độc quyền về thần thánh hoặc ngôn ngữ hoặc tiền bạc không nên được trao cho ai, thì vào lúc mạnh mẽ của trí tuệ máy móc, chúng ta nên tự hỏi mình, cái gì là kiểm soát độc quyền về trí óc?”
Venice.ai sẽ không nói cho bạn cách suy nghĩ
Đồng sáng lập Teana Baker-Taylor của Venice.ai giải thích với Tạp chí rằng hầu hết mọi người vẫn sai lầm cho rằng AI là không thiên vị, nhưng:
“Nếu bạn đang nói chuyện với Claude hoặc ChatGPT, bạn không nên như vậy. Có một loạt các tính năng an toàn, và một số ủy ban đã quyết định rằng phản hồi phù hợp là gì.”
Venice.ai là nỗ lực của họ để vượt qua các rào chắn và sự kiểm duyệt của AI tập trung bằng cách tạo ra một phương thức hoàn toàn riêng tư để truy cập các mô hình mã nguồn mở chưa lọc. Dù chưa hoàn hảo nhưng nó có thể sẽ thu hút cộng đồng cypherpunk không thích bị ép buộc suy nghĩ.
“Chúng tôi kiểm tra và thử nghiệm chúng rất cẩn thận để đảm bảo rằng chúng tôi nhận được phản hồi càng không qua lọc càng tốt,” nói Baker-Taylor, trước đó là một giám đốc điều hành tại Circle, Binance và Crypto.com.
“Chúng tôi không quyết định điều gì phù hợp để bạn nghĩ về, hoặc nói chuyện về, với AI.”
Phiên bản miễn phí của Venice.ai mặc định sử dụng mô hình Llama 3,3 của Meta. Giống như các mô hình lớn khác, nếu bạn hỏi về một chủ đề nhạy cảm về chính trị, bạn có lẽ vẫn nhận được một phản hồi mang ý thức hệ hơn là một câu trả lời thẳng thắn.
Mô hình AI không bị kiểm duyệt: Dolphin Llama, Dolphin Mistral, Flux Custom
Như vậy, việc sử dụng một mô hình mã nguồn mở không đảm bảo nó không bị bóp méo bởi nhóm an toàn hoặc thông qua Học Tăng Cường Từ Phản Hồi Của Con Người (RLHF), đây là nơi con người nói cho AI biết câu trả lời “đúng” nên là gì.
Trong trường hợp của Llama, một trong những công ty lớn nhất thế giới, Meta, cung cấp các biện pháp an toàn và hướng dẫn mặc định. Tuy nhiên, là mã nguồn mở, nhiều rào chắn và thiên vị có thể được loại bỏ hoặc sửa đổi bởi các bên thứ 3, chẳng hạn như với mô hình Dolphin Llama 3 70B.
Venice không cung cấp phiên bản cụ thể đó, nhưng cung cấp cho người dùng trả tiền quyền truy cập vào mô hình Dolphin Mistral 2,8, mà nó nói là mô hình “không bị kiểm duyệt nhất”.
Theo các nhà sáng tạo của Dolphin, Anakin.ai:
“Không giống như một số mô hình ngôn ngữ khác đã được lọc hoặc biên tập để tránh nội dung có thể gây xúc phạm hoặc tranh cãi, mô hình này chấp nhận thực tế không qua lọc của dữ liệu mà nó đã được đào tạo, cung cấp một cơ hội độc đáo để khám phá, nghiên cứu và hiểu biết.”
Các mô hình không bị kiểm duyệt không phải lúc nào cũng có hiệu suất tốt nhất hoặc cập nhật nhất, vì vậy người dùng Venice trả phí có thể chọn giữa ba phiên bản của Llama (hai trong số đó có thể tìm kiếm trên web), Dolphin Mistral và Qwen tập trung vào mã hóa.
Các mô hình tạo hình ảnh bao gồm Flux Standard và Stable Diffusion 3,5 cho chất lượng và Flux Custom không bị kiểm duyệt và Pony Realism khi bạn cần tạo hình ảnh của Elon Musk trần trụi cưỡi trên lưng của Donald Trump. Grok cũng tạo ra các hình ảnh không bị kiểm duyệt, như bạn có thể thấy.
Người dùng thậm chí còn có khả năng chỉnh sửa Lời nhắc Hệ thống của mô hình mà họ chọn, để sử dụng theo ý muốn.
Điều đó nói rằng, bạn có thể truy cập các mô hình mã nguồn mở không bị kiểm duyệt như Dolphin Mistral 7B ở nơi khác. Vậy tại sao lại sử dụng Venice.ai?
So sánh các nền tảng AI riêng tư: Venice.ai, Duck.ai và các lựa chọn khác
Mối quan tâm lớn khác với các dịch vụ AI tập trung là chúng thu thập thông tin cá nhân mỗi khi chúng ta tương tác với chúng. Bộ hồ sơ càng chi tiết càng dễ dàng để thao túng người dùng. Sự thao túng đó có thể chỉ là quảng cáo cá nhân hóa, nhưng cũng có thể là điều gì đó tồi tệ hơn.
“Vì vậy, sẽ đến một lúc nào đó, tôi đoán là nhanh hơn chúng ta nghĩ, AI sẽ biết nhiều hơn về chúng ta so với chính mình dựa trên tất cả thông tin mà chúng ta cung cấp cho chúng. Điều đó thật đáng sợ,” Baker-Taylor nói.
Theo một báo cáo của công ty an ninh mạng Blackcloak, Gemini (được gọi là Bard trước đây) có các điều khiển bảo mật kém và sử dụng “thu thập dữ liệu rộng rãi”, trong khi ChatGPT và Perplexity cân bằng tốt hơn giữa tính năng và bảo mật (Perplexity cung cấp chế độ ẩn danh).
Báo cáo ghi nhận công cụ tìm kiếm bảo mật Duck Duck Go là Duck.ai như “lựa chọn hàng đầu cho những ai đánh giá cao sự riêng tư hoặc khác” nhưng lưu ý còn hạn chế tính năng. Duck.ai ẩn các yêu cầu và loại bỏ siêu dữ liệu, nhà cung cấp cũng như mô hình AI không lưu trữ bất kỳ dữ liệu nào hoặc sử dụng đầu vào để huấn luyện. Người dùng có thể xóa toàn bộ dữ liệu của mình chỉ với một cú nhấp, là lựa chọn tốt nếu bạn muốn truy cập GPT-4 hoặc Claude một cách riêng tư.
Blackcloak không kiểm tra Venice, nhưng nó có trò chơi bảo mật mạnh mẽ. Venice không lưu giữ bất kỳ nhật ký nào hay thông tin về các yêu cầu của người dùng, với dữ liệu hoàn toàn được lưu trữ trong trình duyệt của người dùng. Các yêu cầu được mã hóa và gửi qua máy chủ proxy, với xử lý AI sử dụng GPU phi tập trung từ Akash Network.
“Chúng được rộng khắp mọi nơi, và GPU nhận lệnh nhắc không biết nó đến từ đâu, và khi gửi lại, nó không biết đang gửi thông tin đó đi đâu.”
Bạn có thể thấy cách điều này có thể hữu ích nếu bạn đã hỏi LLM hỏi chi tiết về việc sử dụng tiền riêng tư và mix coin (vì lý do hợp pháp) và Sở Thuế vụ Hoa Kỳ yêu cầu truy cập vào nhật ký của bạn.
“Nếu một cơ quan chính phủ gõ cửa nhà tôi, tôi không có gì để giao nộp. Không phải tôi không muốn hay kháng cự. Tôi thực sự không có nó để giao nộp,” cô ấy giải thích.
Nhưng cũng giống như việc giữ Bitcoin của mình, không có sao lưu nếu mọi thứ đi sai.
“Nó thực sự tạo ra nhiều khó khăn hơn cho chúng tôi khi chúng tôi cố gắng hỗ trợ người dùng,” cô nói.
“Chúng tôi đã có người vô tình xóa bộ nhớ cache mà không sao lưu các cuộc trò chuyện Venice của mình, và chúng đã biến mất, và chúng tôi không thể khôi phục chúng. Vì vậy, có một số phức tạp với điều đó, đúng không?”
AI riêng tư: Chế độ giọng nói và các nhân vật AI tùy chỉnh
Thực tế là không có nhật ký và mọi thứ đều được ẩn danh mang lại cho những người ủng hộ quyền riêng tư khả năng cuối cùng sử dụng chế độ giọng nói. Nhiều người hiện tránh sử dụng giọng nói do mối đe dọa của các công ty nghe lén các cuộc trò chuyện riêng tư.
Đó không chỉ là sự lo lắng: Tuần trước, Apple đã đồng ý trả 95 triệu USD trong một vụ kiện tập thể cáo buộc Siri nghe lén mà không được yêu cầu, và thông tin được chia sẻ với các nhà quảng cáo.
Dự án gần đây cũng giới thiệu các nhân vật AI, cho phép người dùng trò chuyện với AI Einstein về vật lý hoặc nhận lời khuyên nấu ăn từ AI Gordon Ramsay. Một cách sử dụng hấp dẫn hơn có thể là cho phép người dùng tạo ra bạn trai hoặc bạn gái AI của mình. Các dịch vụ đối tác AI cho những trái tim cô đơn như Replika đã tăng trưởng mạnh trong hai năm qua, nhưng chính sách bảo mật của Replika được cho là rất tồi tệ mà nó bị cấm ở Ý.
Baker-Taylor lưu ý rằng, rộng hơn, các cuộc trò chuyện một kèm một với AI là “vô cùng thân mật” hơn phương tiện truyền thông social và đòi hỏi sự cẩn thận hơn.
“Đây là những suy nghĩ thực sự của bạn và những suy nghĩ mà bạn có trong riêng tư mà bạn nghĩ rằng bạn đang có trong máy, đúng không? Và vì vậy, chúng không phải là những suy nghĩ mà bạn đưa ra ngoài để mọi người thấy. Chúng là ‘bạn’ thực sự, và tôi nghĩ chúng ta cần phải cẩn trọng với thông tin đó.”