인권뉴스 뉴스

구글: AI의 무기사용 금지 원칙 삭제, 인권에 대한 큰 타격

인공지능(AI)을 무기 및 감시 도구 개발에 사용하지 않는다는 금지 조항을 삭제하기로 한 구글의 결정에 대해, 매트 마흐무디Matt Mahmoudid 국제앰네스티 인공지능 및 인권 연구원 겸 고문은 이렇게 말했다.

 “자사의 AI 프로그램이 인권 침해에 일조할 만한 방식으로 사용되어서는 안 된다는 원칙을 수년간 유지해 온 구글이 이렇게 위험한 선례를 남기기로 결정한 것은 부끄러운 일이다. 앰네스티는 오랫동안 AI가 사회 통제와 대규모 감시 및 차별의 수단으로 이용될 때 일어날 인권 침해의 가능성을 기록해왔다.”

“AI 기반 기술은 막대한 규모의 감시와 치명적인 살해 시스템의 강화를 부추기며 대대적인 인권 침해와 기본적인 사생활권에 대한 침해를 초래할 수 있다. AI 무기에 관한 금지 조항을 삭제한 이번 결정으로, 구글은 대규모 감시, 반자동 ‘징후 타격’*을 위해 개발된 드론, 살해 여부를 더 신속히 결정하는 표적 생성 소프트웨어 등의 기술을 강화시키는 제품을 판매할 수 있게 되었다.”

“구글은 AI 원칙에 대한 최근의 결정을 시급히 철회하고, 심각한 인권 침해를 일으킬 수 있는 시스템을 개발 및 판매하지 않겠다는  뜻을 다시 한번 확실히 밝혀야 한다.”

“더불어 국가 행위자들은 이러한 기술 배치를 인권 원칙에 따라 규율하는 구속력 있는 규정을 마련해야 한다. 테크 기업들이 영속화하는 자율 규제라는 허울에 빠지지 않고, 인권을 보호하기 위한 강력한 법안을 시급히 제정해야 한다.”

 

배경

2월 4일 화요일, 구글은 무기 및 감시 시스템 등 ‘전반적인 피해를 초래하는’ 기술과 ‘널리 인정되는 국제법과 인권 원칙을 위반하는 목적을 띤 기술’을 추구하지 않겠다는 원칙을 자사 웹사이트에서 삭제했다. 구글은 이러한 변화를 옹호하면서, ‘국가 안보를 지원하는’ AI 개발을 위해 기업과 정부가 협력할 필요가 있다고 해명했다.

국제앰네스티는 AI 기반 안면 인식 시스템이 인종차별적인 치안 활동을 증폭시키고, 집회 시위 권리를 위협하는 양상을 기록한 보고서를 발표한 바 있다.

2019년에 발표한 보고서에서 국제앰네스티는, 구글의 감시 기반 사업 모델이 본질적으로 사생활권과 양립할 수 없으며 의견과 표현의 자유, 사상의 자유 및 평등권과 비차별권 등 여러 권리에 위협을 가한다는 사실을 밝혔다.

 

*징후 타격(signature strike): 공격 목표인 개인이나 집단의 신원을 확인하지 않은 채 수상한 행동 패턴만을 근거로 실행하는 공격

Global: Google’s shameful decision to reverse its ban on AI for weapons and surveillance is a blow for human rights

Responding to Google’s decision to remove its prohibition on artificial intelligence (AI) being used for developing weapons and surveillance tools, Matt Mahmoudi, Researcher and Adviser on Artificial Intelligence and Human Rights, said:
“It’s a shame that Google has chosen to set this dangerous precedent, after years of recognizing that their AI programme should not be used in ways that could contribute to human rights violations. Amnesty has got a long history of documenting the possible human rights violations posed by AI when it is used as a means of societal control, mass surveillance and discrimination.
“AI-powered technologies could fuel surveillance and lethal killing systems at a vast scale, potentially leading to mass violations and infringing on the fundamental right to privacy. Google’s decision to reverse its ban on AI weapons enables the company to sell products that power technologies including mass surveillance, drones developed for semi-automated signature strikes, and target generation software that is designed to speed up the decision to kill.
“Google must urgently reverse recent changes in AI principles and recommit to refraining from developing or selling systems that could enable serious human rights violations.
“It is also essential that state actors establish binding regulations governing the deployment of these technologies grounded in human rights principles. The facade of self-regulation perpetuated by tech companies must not distract us from urgent need to create robust legislation that protects human rights.”
Background
On Tuesday, Google removed from their website the pledge promising not to pursue technologies that “cause overall harm” including weapons and surveillance systems and “technologies whose purpose contravenes widely accepted principles of international law and human rights.” Google defended the change, outlining that businesses and governments needed to work together on AI that “supports national security.”
Amnesty International’s research has documented how facial recognition systems amplify racially discriminatory policing and threatens the right to protest.
In 2019, Amnesty International’s research revealed how Google’s surveillance-based business model is inherently incompatible with the right to privacy and poses a threat to a range of other rights including freedom of opinion and expression, freedom of thought, and the right to equality and non-discrimination.

중국은 북한 주민에 대한 강제북송을 멈춰라
온라인액션 참여하기
세상의 부당함에 맞서 싸웁니다
후원하기

앰네스티의 다양한 자료를 통해 인권을 쉽게 이해하고 인권활동에 함께해요.

당신의 관심은 우리가 행동할 수 있는 힘입니다.
이름과 이메일 남기고 앰네스티 뉴스레터를 받아보세요!