Gemini của Google: Quá Cẩn Thận Đến Mức…Sai Lầm!

Gemini của Google: Quá Cẩn Thận Đến Mức…Sai Lầm!

Google đã khiến Gemini, mô hình AI đa phương tiện của mình, trở nên “quá cẩn thận”, dẫn đến việc tạo ra hình ảnh không chính xác và làn sóng phản ứng dữ dội từ người dùng. Việc áp đặt một lớp quản lý trung gian “siêu thận trọng” cho Gemini đã vô tình gây ra những hạn chế đáng kể, làm giảm chất lượng đầu ra của hệ thống.

Bài viết này sẽ phân tích nguyên nhân dẫn đến vấn đề này, cũng như đánh giá tác động của nó đến sự phát triển và triển khai của Gemini. Sự “quá cẩn thận” được đề cập không chỉ thể hiện ở việc hạn chế sự sáng tạo và khả năng tưởng tượng của mô hình, mà còn ảnh hưởng trực tiếp đến độ chính xác của hình ảnh được tạo ra. Thay vì tạo ra những hình ảnh sống động và chân thực, Gemini thường tạo ra những sản phẩm mờ nhạt, thiếu chi tiết, hoặc thậm chí sai lệch về mặt nội dung.

Điều này gây ra sự thất vọng lớn cho người dùng, đặc biệt là những người kỳ vọng Gemini sẽ đạt được mức độ tiên tiến tương đương hoặc vượt trội so với các đối thủ cạnh tranh. Phản ứng dữ dội từ cộng đồng người dùng đã đặt ra câu hỏi về chiến lược phát triển và triển khai của Google đối với Gemini. Liệu Google có cần phải cân bằng lại giữa sự “an toàn” và khả năng sáng tạo của mô hình AI này? Liệu có cần phải xem xét lại cơ chế quản lý trung gian để cho phép Gemini thể hiện hết tiềm năng của mình?

Những câu hỏi này cần được Google giải đáp trong thời gian tới. Việc phát triển AI thành công đòi hỏi sự cân bằng giữa độ chính xác, tính sáng tạo và sự an toàn. Google, với Gemini, dường như đang phải vật lộn để tìm ra sự cân bằng đó. Hy vọng rằng Google sẽ nhanh chóng khắc phục những thiếu sót này để đưa Gemini trở thành một mô hình AI thực sự đáng tin cậy và hữu ích.

Bạn đang tìm kiếm một thiết bị công nghệ chất lượng cao với giá cả hợp lý? Hãy đến ngay Queen Mobile để trải nghiệm sản phẩm và mua sắm! [Link đến website Queen Mobile]

#GoogleGemini #AIGenerative #AIArt #ArtificialIntelligence #ImageGeneration #MachineLearning #TechNews #GoogleAI #OverCautiousAI #QueenMobile #CôngNghệ #TríTuệNhânTạo #HìnhẢnhAI #ĐánhGiáSảnPhẩm

Giới thiệu Google made Gemini an ‘over cautious’ middle manager — leading to inaccurate images and backlash

: Google made Gemini an ‘over cautious’ middle manager — leading to inaccurate images and backlash

Hãy viết lại bài viết dài kèm hashtag về việc đánh giá sản phẩm và mua ngay tại Queen Mobile bằng tiếng VIệt: Google made Gemini an ‘over cautious’ middle manager — leading to inaccurate images and backlash

Mua ngay sản phẩm tại Việt Nam:
QUEEN MOBILE chuyên cung cấp điện thoại Iphone, máy tính bảng Ipad, đồng hồ Smartwatch và các phụ kiện APPLE và các giải pháp điện tử và nhà thông minh. Queen Mobile rất hân hạnh được phục vụ quý khách….


Mua #Điện_thoại #iphone #ipad #macbook #samsung #xiaomi #poco #oppo #snapdragon giá tốt, hãy ghé [𝑸𝑼𝑬𝑬𝑵 𝑴𝑶𝑩𝑰𝑳𝑬] ✿ 149 Hòa Bình, phường Hiệp Tân, quận Tân Phú, TP HCM
✿ 402B, Hai Bà Trưng, P Tân Định, Q 1, HCM
✿ 287 đường 3/2 P 10, Q 10, HCM
Hotline (miễn phí) 19003190
Thu cũ đổi mới
Rẻ hơn hoàn tiền
Góp 0%

Thời gian làm việc: 9h – 21h.

KẾT LUẬN

Hãy viết đoạn tóm tắt về nội dung bằng tiếng việt kích thích người mua: Google made Gemini an ‘over cautious’ middle manager — leading to inaccurate images and backlash

Google was hit with complaints and backlash from users this week after its Gemini AI chatbot started to create historically inaccurate pictures of people. 

The AI also started refusing to generate certain images where race was involved, and this led the search giant to disable Gemini’s ability to create any image of a person: living, dead or fictional. 

Gemini can create, including limits on producing depictions of real people. The problem is, those restrictions seem to be set too tight and this led to major backlash.

Google says it will resolve the problem and is currently investigating a safe way to adjust the instructions.

What went wrong with Gemini?

Google Gemini won't make images of people

(Image credit: Google)

See more

Gemini itself doesn’t actually create the images. The chatbot acts like a middle manager, taking the requests, sprinkling its own interpretation on the prompt and sending it off to Imagen 2, the artificial intelligence image generator built by Google’s DeepMind AI lab.

The problems seem to be coming from this middle, sprinkling stage. Gemini has a set of core instructions that, although not confirmed by Google, likely act as a diversity filter for any request of a person doing an every day task — for some reason this was applied to all people pictures.

Yishan Wong, former Reddit CEO and founder of climate change reforestation company Terraformation wrote on X that the historical figure issue likely took Google by surprise.

“This is not an unreasonable thing to do, given that they have a global audience,” he said of the diversity filter. “Maybe you don’t agree with it, but it’s not unreasonable. Google most likely did not anticipate or intend the historical-figures-who-should-reasonably-be-white result.”

What are the implications?

Google ImageFX can generate images

(Image credit: Google)

Ryan Carrier, CEO of AI certification and security agency forHumanity told Tom’s Guide there is likely a “hard coded diversity filter” inside the Gemini instructions. He said this is “similar to engaging in affirmative action for images” and could be illegal.

He told Tom’s Guide: “Given the recent court rulings that affirmative action amounts to reverse discrimination, this ‘diversity’ filter is on the wrong side of the law, not to mention a meaningful deviation from accuracy.”

I tried to replicate some of the prompt, around generating pictures of people from Medieval England, using ImageFX, the AI image tool from Google Labs also built on Imagen 2. This is effectively by-passing the diversity filter in Gemini and querying the model directly.

It correctly reflected the historical reality, rather than applying a color or race filter to the images and meeting whatever “positive discrimination” rules are in place within Gemini.

“This event is significant because it is major demonstration of someone giving a LLM a set of instructions and the results being totally not at all what they predicted,” declared Wong.

What can Google do to fix the problem?

See more

It isn’t necessarily a middle manager issue. ChatGPT works in a similar way when sending requests to the DALL-E 3 model and both Sora and the new Stable Diffusion 3 models use a transformer architecture and filters when generating images.

The problem seems to sit firmly within the restrictions placed on Gemini by Google, which the search giant says it will fix; declaring that it “missed the mark”.

“Gemini’s AI image generation does generate a wide range of people. And that’s generally a good thing because people around the world use it. But it’s missing the mark here,” Jack Krawczyk, senior director for Gemini Experiences said on Wednesday.

Krawczyk was forced to go private on X after the backlash, hiding his tweets from the majority of users but he first said: “We’re working to improve these kinds of depictions immediately.”

More from Tom’s Guide

//platform.twitter.com/widgets.js
Xem chi tiết và đăng ký


Khám phá thêm từ Phụ Kiện Đỉnh

Đăng ký để nhận các bài đăng mới nhất được gửi đến email của bạn.

Gửi phản hồi

Khám phá thêm từ Phụ Kiện Đỉnh

Đăng ký ngay để tiếp tục đọc và truy cập kho lưu trữ đầy đủ.

Tiếp tục đọc