## Hội nghị thượng đỉnh về An toàn AI của Anh Quốc: Liệu “Trí tuệ nhân tạo độc ác” chỉ là phần nổi của tảng băng?
Hội nghị thượng đỉnh về An toàn AI được tổ chức tại Vương quốc Anh đang tập trung vào mối đe dọa về một “trí tuệ nhân tạo độc ác,” một viễn cảnh AI có ý thức và có mục đích gây hại. Tuy nhiên, nhiều chuyên gia cho rằng, việc tập trung quá nhiều vào viễn cảnh này có thể làm lu mờ những vấn đề cấp bách hơn, đáng lo ngại hơn nhiều trong hiện tại.
Bài báo gốc đề cập đến “evil sentience” (trí tuệ nhân tạo độc ác), một thuật ngữ gợi hình ảnh về một AI có ý thức tự chủ, độc lập và có mục đích gây hại cho con người. Đây là một viễn cảnh đáng lo ngại, nhưng khả năng xảy ra trong tương lai gần vẫn còn là một dấu hỏi lớn. Trong khi đó, những rủi ro hiện hữu của AI lại đang gây ra những tác động thực tế nghiêm trọng hơn nhiều.
Những vấn đề cấp thiết hơn mà Hội nghị cần quan tâm bao gồm:
* Sự thiên vị và phân biệt đối xử: Các hệ thống AI thường được huấn luyện trên dữ liệu có thiên kiến, dẫn đến việc tạo ra các kết quả phân biệt đối xử đối với các nhóm dân tộc, giới tính và các nhóm thiểu số khác.
* Sự mất việc làm: Sự tự động hóa do AI thúc đẩy đang và sẽ tiếp tục thay đổi thị trường lao động, dẫn đến sự mất việc làm hàng loạt trong nhiều ngành nghề.
* Sự lạm dụng thông tin và tuyên truyền: AI có thể được sử dụng để tạo ra tin giả, thông tin sai lệch và tuyên truyền một cách hiệu quả, gây ra sự hỗn loạn xã hội và chính trị.
* Sự giám sát hàng loạt: Việc sử dụng công nghệ nhận diện khuôn mặt và các công nghệ giám sát khác do AI cung cấp đang đặt ra những mối lo ngại về quyền riêng tư và tự do cá nhân.
* An ninh mạng: AI có thể được sử dụng để tạo ra các cuộc tấn công mạng tinh vi hơn, khó phát hiện hơn và gây ra thiệt hại lớn hơn.
Thay vì chỉ tập trung vào một viễn cảnh tương lai xa vời, Hội nghị thượng đỉnh về An toàn AI cần có một cách tiếp cận toàn diện hơn, giải quyết các vấn đề thực tế và cấp thiết đang tác động trực tiếp đến cuộc sống con người hiện nay. Việc cân bằng giữa việc chuẩn bị cho những mối đe dọa trong tương lai và giải quyết các thách thức hiện hữu là điều cần thiết để đảm bảo một tương lai an toàn và công bằng với AI.
#AISafetySummit #ArtificialIntelligence #AIethics #BiasInAI #JobDisplacement #Misinformation #MassSurveillance #Cybersecurity #FutureofAI #AIregulation
(Phần về Queen Mobile được thêm vào đây nếu cần thiết, ví dụ như):
Bạn muốn cập nhật những công nghệ mới nhất và an tâm với những sản phẩm chất lượng cao? Hãy ghé thăm Queen Mobile ngay hôm nay! Chúng tôi cung cấp đa dạng các sản phẩm điện thoại, máy tính bảng và phụ kiện công nghệ hàng đầu, cùng với dịch vụ chăm sóc khách hàng chuyên nghiệp. Đừng bỏ lỡ cơ hội sở hữu những sản phẩm tuyệt vời! [Link đến website Queen Mobile]
#QueenMobile #CôngNghệ #ĐiệnThoại #MáyTínhBảng #PhụKiện #MuaSắmOnline
Giới thiệu UK AI Safety Summit is targeting evil sentience, but there are bigger problems to solve
: UK AI Safety Summit is targeting evil sentience, but there are bigger problems to solve
Hãy viết lại bài viết dài kèm hashtag về việc đánh giá sản phẩm và mua ngay tại Queen Mobile bằng tiếng VIệt: UK AI Safety Summit is targeting evil sentience, but there are bigger problems to solve
Mua ngay sản phẩm tại Việt Nam:
QUEEN MOBILE chuyên cung cấp điện thoại Iphone, máy tính bảng Ipad, đồng hồ Smartwatch và các phụ kiện APPLE và các giải pháp điện tử và nhà thông minh. Queen Mobile rất hân hạnh được phục vụ quý khách….
_____________________________________________________
Mua #Điện_thoại #iphone #ipad #macbook #samsung #xiaomi #poco #oppo #snapdragon giá tốt, hãy ghé [𝑸𝑼𝑬𝑬𝑵 𝑴𝑶𝑩𝑰𝑳𝑬]
✿ 149 Hòa Bình, phường Hiệp Tân, quận Tân Phú, TP HCM
✿ 402B, Hai Bà Trưng, P Tân Định, Q 1, HCM
✿ 287 đường 3/2 P 10, Q 10, HCM
Hotline (miễn phí) 19003190
Thu cũ đổi mới
Rẻ hơn hoàn tiền
Góp 0%
Thời gian làm việc: 9h – 21h.
KẾT LUẬN
Hãy viết đoạn tóm tắt về nội dung bằng tiếng việt kích thích người mua: UK AI Safety Summit is targeting evil sentience, but there are bigger problems to solve
World leaders are meeting with some of the biggest tech companies to debate how to protect the world from a future sentient Artificial intelligence — featuring an ‘in conversation’ event with X (Twitter) CEO Elon Musk afterward.
The UK AI Safety Summit includes the next-generation models from the likes of OpenAI, Anthropic and Google, which may have the ability to reason and not just regurgitate data.
The event is being held at Bletchley Park in the southeast of England — the home of the WW2 codebreakers and one of the birthplaces of modern computing. Its laudable objectives are primarily focused on forming international agreements on how to collaborate, report and minimize risks posed by future AI tools. But some experts have said there needs to be more attention to current models.
Every country is exploring the best way to regulate AI, both currently in-use models and those in the far future with a brain of their own. The most recent update saw President Joe Biden signing an executive order setting out detailed plans for the technology this week.
In conversation with @elonmusk After the AI Safety SummitThursday night on @x pic.twitter.com/kFUyNdGD7iOctober 30, 2023
UK AI Safety Summit: What’s the focus?
Announced by the U.K. Prime Minister Rishi Sunak in June, the aim of the summit is to bring various governments, tech companies, academics and third-sector organizations together to discuss how best to collaborate on regulation, guardrails, and standards.
Initially, it was assumed this would cover all aspects of AI. Still, in response to lobbying from the likes of OpenAI and Google, it was shifted to so-called Frontier models – those models with human and post-human capabilities, up to and including Artificial General Intelligence (AGI).
The fear of risks posed by AGI going rogue and being used in ways that are harmful to humanity as a whole is behind the narrow focus of the summit. In its guide to the summit, the U.K. government Department for Science, Innovation and Technology wrote that the “capabilities of these models are very difficult to predict – sometimes even to those building them – and by default they could be made available to a wide range of actors, including those who might wish us harm.”
It goes on to say that the pace of change in AI development, particularly with the models expected to launch next year with video, audio, image and text capabilities, is so rapid that immediate action is needed on AI safety. The government argues that this needs to be a global action.
We are at a crossroads in human history and to turn the other way would be a monumental missed opportunity for mankind.”
U.K Government
Previous studies into the impact of misaligned AGI models, such as those Frontier AI models covered by the summit, could see them deployed to take control of weapons systems or accurately spread targeted misinformation during an election. But the risk is more immediate. A recent study by MIT found that releasing the weights of current models such as Meta’s Llama 2 could give criminals unrestricted access to tools that can design new viruses and information on how to most efficiently spread those viruses.
These models, with the weights that give it instructions on how to use information it was trained on, Llama 2 can be run on local hardware or in data centers controlled by a criminal organization.
Some of these risks will be addressed at the Summit, but the primary focus will be on the big AI models of the future. It will also apparently ignore the risk of copyright infringement, bias in training data and the ethical use of narrow models in CV sifting, facial recognition and education.
AI dangers: There’s bigger things to worry about
Ryan Carrier, CEO of the AI certification and training organization forHumanity told me there were plenty of other pressing issues to address before AI becomes sentient.
Hypothetical models and hypothetical risk should be considered, especially if it is existential, but we have many, many pressing issues with today’s models.”
Ryan Carrier
Carrier went on to outline some of the more pressing issues including ensuring ethical use of data, and reducing the risk of embedded discrimination in the training datasets. Other issues include the “failure to uphold IP rights, failure to protect data and privacy, insufficient disclosure of risk, insufficient safety testing, insufficient governance, and insufficient cybersecurity to name a few.” All of this, he says, adds up to a pressing problem that needs attention today, ahead of a future hypothetical risk tomorrow.
Some experts, including Stanford University machine learning professor Andrew Ng, who taught OpenAI CEO Sam Altman, argue that the focus on the threat of AI is a ploy from Big Tech to shut down competition. “The idea that artificial intelligence could lead to the extinction of humanity is a lie being promulgated by big tech in the hope of triggering heavy regulation that would shut down competition in the AI market, one of the world’s top AI experts warned,” he argued in an interview with .
He expressed concern that the focus of regulation from the likes of the Biden Executive Order and the EU AI Act will be more harmful to society than no regulation at all. Ng said: “AI has caused harm. Self-driving cars have killed people. In 2010, an automated trading algorithm crashed the stock market. Regulation has a role. But just because regulation could be helpful doesn’t mean we want bad regulation.”
It is likely the regulatory train has already gained too much speed to stop or even slow down. While events like the UK AI Safety Summit are just a place to talk, the focus on frontier models, the fact the invite list leans heavily towards Big Tech, and the exclusion of open source suggests minds have already been made up in the corridors of power.
More from Tom’s Guide
//platform.twitter.com/widgets.js
Xem chi tiết và đăng ký
Khám phá thêm từ Phụ Kiện Đỉnh
Đăng ký để nhận các bài đăng mới nhất được gửi đến email của bạn.