Q&A: 전문가들은 AI를 멈추는 것은 불가능하거나 바람직하지 않다고 말합니다.

소식

홈페이지홈페이지 / 소식 / Q&A: 전문가들은 AI를 멈추는 것은 불가능하거나 바람직하지 않다고 말합니다.

May 17, 2023

Q&A: 전문가들은 AI를 멈추는 것은 불가능하거나 바람직하지 않다고 말합니다.

에 의해

루카스 미리안(Lucas Mearian)

컴퓨터월드 선임기자 |

OpenAI의 ChatGPT 및 Google의 Bard와 같은 생성 AI 도구가 계속해서 맹렬한 속도로 발전하면서 신뢰성과 인권에 대한 의문이 제기됨에 따라 전문가들은 기술을 늦추고 더욱 안전하게 만들 수 있는지 여부 또는 방법을 고려하고 있습니다.

지난 3월, 비영리 단체인 Future of Life Institute는 Microsoft가 지원하는 OpenAI가 만든 AI 기반 챗봇인 ChatGPT 개발을 6개월간 중단할 것을 요구하는 공개 서한을 발표했습니다. 현재 31,000명 이상이 서명한 이 서한에는 강력한 AI 시스템은 위험이 관리될 수 있는 경우에만 개발되어야 한다고 강조되었습니다.

"결국 우리보다 수적으로 많고, 똑똑하고, 쓸모없고, 쓸모없어져서 대체할 수 있는 비인간 정신을 개발해야 할까요? 문명에 대한 통제력을 상실할 위험을 감수해야 할까요?" 편지가 물었다.

Apple 공동 창립자 Steve Wozniak과 SpaceX, Tesla CEO Elon Musk는 수천 명의 다른 서명자들과 함께 AI가 "광범위한 연구를 통해 밝혀지고 최고의 AI 연구소에서 인정한 바와 같이 사회와 인류에 심각한 위험을 초래한다"는 데 동의했습니다.

지난 5월, 비영리 AI 안전 센터(Center for AI Safety)는 AI가 전염병 및 핵전쟁과 동등한 세계적인 멸종 위험을 초래한다고 선언하는 유사한 공개 서한을 발표했습니다. 이 성명서의 서명자 중에는 생성 AI를 대중에게 선보인 AI 과학자와 경영진이 많이 포함되어 있습니다.

일자리도 생성 AI로 대체될 것으로 예상됩니다. 많은 일자리가 말이죠. 지난 3월 골드만삭스는 생성 AI와 작업 자동화 능력이 전 세계적으로 최대 3억 개의 일자리에 영향을 미칠 수 있다고 추정하는 보고서를 발표했습니다. 그리고 5월 초 IBM은 약 7,800개의 일자리를 채우려는 계획을 중단할 것이라고 밝혔으며 블룸버그 보고서에 따르면 5년 안에 백오피스 일자리 10개 중 거의 3개가 AI로 대체될 수 있을 것으로 추정했습니다.

과거의 산업 혁명은 작업을 자동화하고 작업자를 대체했지만 이러한 변화는 제거한 것보다 더 많은 일자리를 창출했습니다. 예를 들어, 증기기관이 작동하려면 석탄이 필요했고, 그것을 만들고 유지하려면 사람이 필요했습니다.

그러나 생성적 AI는 산업 혁명과 동등하지 않습니다. AI는 스스로 학습할 수 있으며 이미 인간이 생성한 대부분의 정보를 섭취했습니다. 머지않아 AI는 인간의 지식을 자체 지식으로 보완하기 시작할 것입니다.

Geoff Schaefer, 책임 있는 AI 책임자, Booz Allen Hamilton

Geoff Schaefer는 정보 분야를 전문으로 하는 미국 정부 및 군사 계약업체인 Booz Allen Hamilton의 책임 있는 AI 책임자입니다. Susannah Shattuck은 AI 거버넌스 SaaS 공급업체인 Credo AI의 제품 책임자입니다.

Computerworld는 최근 Schaefer 및 Shattuck과 함께 AI의 미래와 그것이 직업과 사회 전체에 미치는 영향에 대해 이야기했습니다. 다음은 해당 인터뷰에서 발췌한 내용입니다.

생성 AI는 어떤 위험을 초래하나요?Shattuck: "알고리즘 편향. 이는 훈련받은 데이터의 패턴을 기반으로 예측을 하는 시스템입니다. 그리고 우리 모두 알고 있듯이 우리는 편향된 세상에 살고 있습니다. 우리가 이러한 시스템을 훈련하는 데이터는 종종 편향되어 있으며 데이터의 패턴을 인식하도록 이러한 시스템을 가르치거나 훈련하는 방식에 대해 주의 깊게 생각하지 않으면 의도치 않게 편향된 예측을 하도록 가르치거나 훈련할 수 있습니다.

"설명 가능성. 요즘 우리가 구축할 수 있는 더 복잡한 [대규모 언어] 모델은 우리에게 상당히 불투명합니다. 우리는 그들이 어떻게 예측하는지 정확히 이해하지 못합니다. -신뢰 또는 매우 민감한 의사결정 환경에서는 의사결정 과정을 완전히 이해하지 못하는 AI 시스템을 신뢰하는 것이 어려울 수 있으며, 이것이 바로 AI 시스템의 투명성에 초점을 맞춘 규제가 증가하고 있는 이유입니다.

"아주 구체적인 예를 들어보겠습니다. 의료 의료 시나리오에 AI 시스템을 배포할 예정이라면 해당 시스템이 환자 데이터를 기반으로 의사에게 특정 권장 사항을 제시하도록 할 경우 설명 가능성은 다음과 같습니다. 의사가 시스템을 기꺼이 신뢰하는 것이 정말 중요할 것입니다.