오픈AI 내부직원들 인공지능 위험성 경고 내용 전문 공개

오픈AI와 여러 인공지능 관련 업계 종사자들 13명이 인공지능의 위험성을 경고했습니다. 인공지능이 인류 멸종까지 불러올 수 있다면서 회사가 반짝이는 제품을 만든다고 안전은 뒷전으로 밀어냈다 라는 폭로를 했죠. 이 내용, SBS뉴스에도 나왔는데요,

 

 

💣 정확한 내용은 어떤게 들어가 있는지 제가 찾았습니다. 전문 공개합니다.

 

뉴스에 나온 인공지능 위험성 경고문 페이지를 가시려면 아래 버튼으로 이동 가능합니다.

 

오픈AI 내부고발 경고문 전문 보러가기

 

오픈AI내부고발 내용 전문

 

오픈AI내부고발 전문을 보면 아래와 같습니다. 영어로 써져 있으니 영어해석이 안 되는 분들은 번역기를 이용해주세요. 네, 저도 번역기 썼습니다 ㅋㅋ 

 

We also understand the serious risks posed by these technologies. These risks range from the further entrenchment of existing inequalities, to manipulation and misinformation, to the loss of control of autonomous AI systems potentially resulting in human extinction. AI companies themselves have acknowledged these risks [1, 2, 3], as have governments across the world [4, 5, 6] and other AI experts [7, 8, 9].

That the company will not enter into or enforce any agreement that prohibits “disparagement” or criticism of the company for risk-related concerns, nor retaliate for risk-related criticism by hindering any vested economic benefit;That the company will facilitate a verifiably anonymous process for current and former employees to raise risk-related concerns to the company’s board, to regulators, and to an appropriate independent organization with relevant expertise;That the company will support a culture of open criticism and allow its current and former employees to raise risk-related concerns about its technologies to the public, to the company’s board, to regulators, or to an appropriate independent organization with relevant expertise, so long as trade secrets and other intellectual property interests are appropriately protected;That the company will not retaliate against current and former employees who publicly share risk-related confidential information after other processes have failed. We accept that any effort to report risk-related concerns should avoid releasing confidential information unnecessarily. Therefore, once an adequate process for anonymously raising concerns to the company’s board, to regulators, and to an appropriate independent organization with relevant expertise exists, we accept that concerns should be raised through such a process initially. However, as long as such a process does not exist, current and former employees should retain their freedom to report their concerns to the public.

 

 ✅위 내용을 번역한 내용은 아래와 같습니다. 이미지를 보셔도 되는데 제가 직접 복붙해보겠습니다.

 

우리는 또한 이러한 기술로 인한 심각한 위험을 이해합니다. 이러한 위험은 기존의 불평등을 더욱 심화시키는 것부터 조작 및 잘못된 정보, 잠재적으로 인간의 멸종을 초래하는 자율 AI 시스템의 통제력 상실까지 다양합니다. 전 세계 정부[4, 5, 6]와 다른 AI 전문가[7, 8, 9]와 마찬가지로 AI 기업 스스로도 이러한 위험성을 인정했습니다.

회사가 위험과 관련된 우려로 회사에 대한 '파격' 또는 비판을 금지하는 계약을 체결하거나 시행하지 않을 것이며, 어떠한 기득권적 경제적 이익을 저해함으로써 위험과 관련된 비판에 대해 보복하지 않을 것.회사는 현재 및 이전 직원들이 회사 이사회, 규제 기관 및 관련 전문 지식을 갖춘 적절한 독립적인 조직에 위험 관련 우려를 제기하기 위해 확인 가능한 익명 프로세스를 용이하게 할 것입니다.회사가 공개적인 비판 문화를 지원하고, 전·현직 직원들이 자사의 기술에 대한 위험 관련 우려를 대중, 회사 이사회, 규제 당국 또는 관련 전문 지식을 가진 적절한 독립적인 조직에 제기할 수 있도록 할 것, 영업비밀 및 기타 지적재산권이 적절하게 보호되는 한,회사는 다른 프로세스가 실패한 후 위험 관련 기밀 정보를 공개적으로 공유하는 전현직 직원에 대해 보복하지 않을 것입니다. 당사는 위험과 관련된 우려 사항을 보고하기 위한 모든 노력이 불필요하게 기밀 정보를 공개하는 것을 피해야 한다는 점에 동의합니다. 따라서 익명으로 회사 이사회, 규제 기관 및 관련 전문 지식을 갖춘 적절한 독립 기관에 우려 사항을 제기하기 위한 적절한 프로세스가 존재하면 이러한 프로세스를 통해 우려 사항을 처음에 제기해야 한다는 것을 받아들입니다. 그러나 그러한 과정이 존재하지 않는 한, 전현직 직원들은 그들의 우려를 대중에게 보고할 자유를 유지해야 합니다.

 

요약하자면 

 

  1. 기존의 불평등을 더욱 심화시킨다
  2. 조작 및 잘못된 정보가 잠재적으로 인간 멸종을 초래할 수 있다
  3. 자율AI시스템의 통제력 상실 가능성이 있다
  4. 오픈AI와 다른 기업들 모두 이런 위험성을 인정했다
  5. 회사가 이런 우려를 표하는 내부 직원들을 입막음 하고 있다

 

입니다. 이에 오픈AI는 내부고발제도가 기업 내에 있다면서 이 내부고발 내용을 받아들이지 않을 거라고 공식적으로 답변했습니다. 너무 무섭죠..? 오픈AI는 개발 중인 인공지능이 어떤 위험한 행동을 하는지 감시하고 분석하는 역할을 해온 내부 조직을 최근 해체 시켰습니다.. 이 팀을 이끌었던 책임자는 사표를 던졌다고 하네요. 

 

 

 

위 영상을 보시면 더 자세히 볼 수 있습니다.

 

인공지능은 정말 인간을 멸종시킬까?

 

인공지능이 스스로 인간을 멸종시킬 일은 없을 것 같지만, 같은 인간이 인간을 멸종시키기 위해 인공지능을 사용할 가능성은 너무나도 많습니다. 예를 들어 중국이나 러시아가 미국을 파멸시키고자 인공지능을 무기화 시켜서 활용한다면 어떻게 될까요? 

 

가장 먼저 떠오르는 것은 인공지능을 이용하여 적국의 사회적 인프라 시스템을 마비시키기 위해 무제한 네트워크 공격을 하는 것입니다. 인공지능은 전기만 있으면 쉬지 않죠. 만약 이런 무제한 공격이 들어온다면 이를 막기 위한 비용도 엄청날 것이고 뚫린다면 사회시스템이 마비될 것입니다. 

 

적국이 먼저 했어? 어 나도 할거야, 서로 핵 무기가 아닌 네트워크 공격으로 서로를 공격한다면 인공지능은 엄청난 무기로 돌변하게 될 것이며 이로 인해 인류의 인프라 시스템이 마비되고 멸종까지.. ㅠ  무서움.. 

 

이는 단적인 예 입니다. 인공지능을 활용하여 무기화 시키는 방법은 너무나도 많죠. 예를 들어 인공위성 해킹은 어떨까요? 고도화된 인공지능에게 인공위성 통제권을 해킹하라고 지시하고, 인공위성을 추락시켜버리는거죠. 

 

인간의 적은 인간입니다. .. 무섭네요

 

  • 네이버 블로그 공유
  • 네이버 밴드 공유
  • 페이스북 공유
  • 카카오스토리 공유