banner

블로그

Aug 07, 2023

AI는 (아직) 인류를 멸망시키지 않을 것이다

마이클 칼로레 로렌 구드

기계 지능이 언젠가 세계를 장악할 것이라는 생각은 오랫동안 SF 소설의 주요 소재였습니다. 그러나 소비자 수준 인공 지능 도구의 급속한 발전으로 인해 지난 몇 달 동안 그 두려움은 그 어느 때보다 현실에 더 가까워졌습니다. 생성적 AI 열풍은 흥분과 우려를 동시에 불러일으켰고, 많은 사람들은 이 명백히 강력하면서도 아직 초기 단계인 기술의 미래가 어디로 향할지 불안해졌습니다. 예를 들어, 이번 주 비영리 단체인 AI 안전 센터(Center for AI Safety)는 사회가 AI를 핵전쟁이나 전염병처럼 실존적 위협만큼 심각하게 받아들여야 한다고 경고하는 짧은 성명을 발표했습니다.

이번 주 Gadget Lab에서는 WIRED 수석 작가 Will Knight와 함께 AI가 실제로 얼마나 위험한지, 그리고 로봇의 종말을 막기 위해 어떤 가드레일을 설치할 수 있는지에 대해 이야기합니다.

AI가 인류에게 실존적 위협을 가하고 있다고 우려하는 전문가들에 대한 Will의 이야기를 읽어보세요. AI에 관한 WIRED의 모든 보도를 읽어보세요.

Will은 Edward Ashton의 소설 Antimatter Blues를 추천합니다. Mike는 일회용 플라스틱 제품 대신 Bee's Wrap을 사용하여 식품을 보관할 것을 권장합니다. Lauren은 Kara Swisher가 진행하는 HBO의 Succession 팟캐스트를 추천합니다.

윌 나이트(Will Knight)는 트위터 @willknight에서 확인할 수 있습니다. 로렌 구드(Lauren Goode)는 @LaurenGoode입니다. Michael Calore는 @snackfight입니다. @GadgetLab의 메인 핫라인을 블링하세요. 이 쇼는 Boone Ashworth(@booneashworth)가 제작했습니다. 우리의 테마 음악은 Solar Keys의 작품입니다.

이번 주 팟캐스트는 이 페이지의 오디오 플레이어를 통해 언제든지 들을 수 있습니다. 모든 에피소드를 무료로 구독하려면 다음 방법을 따르세요.

iPhone 또는 iPad를 사용하는 경우 Podcasts라는 앱을 열거나 이 링크를 탭하세요. Overcast 또는 Pocket Casts와 같은 앱을 다운로드하고 Gadget Lab을 검색할 수도 있습니다. Android를 사용하는 경우 여기를 탭하면 Google 팟캐스트 앱에서 우리를 찾을 수 있습니다. 우리는 Spotify에도 있습니다. 꼭 필요한 경우를 대비해 RSS 피드를 이용해 보세요.

로렌 구드: 마이크.

마이클 칼로레: 로렌.

로렌 구드: 오늘은 우리 자신의 멸종에 대해 이야기해야겠다고 생각하고 있었어요.

로렌 구드

로렌 구드

줄리안 초카투

유선 직원

마이클 칼로레: 언론인이나 팟캐스터, 아니면 인간으로서요?

로렌 구드: 어쩌면 둘 다일 수도 있습니다.

마이클 칼로레: 엄청난.

로렌 구드 : 응. 응. AI에 관한 또 다른 팟캐스트인데 사람들이 정말 이 팟캐스트를 듣고 싶어할 것 같아요.

마이클 칼로레: 그럼 실제로 희망적인 내용을 사람들에게 들을 수 있는 내용은 언제 제공할 예정인지 물어봐도 될까요?

로렌 구드: 글쎄요, 사실 그것도 쇼의 일부인 것 같아요.

마이클 칼로레: 큰 확인.

로렌 구드: 그럼 바로 들어가겠습니다.

[Gadget Lab 소개 테마 음악 재생]

로렌 구드 : 안녕하세요 여러분. 가젯 연구소에 오신 것을 환영합니다. 저는 로렌 구드입니다. 저는 WIRED의 선임 작가입니다.

마이클 칼로레 : 저는 마이클 칼로레입니다. 저는 WIRED의 수석 편집자입니다.

로렌 구드 : 그리고 오늘은 매사추세츠 주 케임브리지에서 동료 작가인 윌 나이트(Will Knight)가 우리와 합류했습니다. Will, Gadget Lab에 다시 오시게 되어 반갑습니다.

윌 나이트 : 안녕하세요. 다시 돌아와서 정말 기뻐요.

로렌 구드 : 언젠가 윌, 우리가 당신에게 연락해서 "고양이 도구 같은 것에 대해 얘기 좀 할래?"라고 말할 예정이에요. 그러나 지금은 AI 적용 범위의 영역에 있습니다. 그것이 바로 우리가 여러분에게 이야기하려고 하는 것입니다. 예, 우리는 AI에 대해 다시 이야기하고 있지만 이번에는 인류에 대한 실존적 위협을 경고하는 기술자 그룹의 성명입니다. 이번 주 초 기술계에서 들은 한 문장의 진술이었습니다. "AI로 인한 멸종 위험을 완화하는 것은 전염병이나 핵전쟁과 같은 다른 사회적 규모의 위험과 함께 전 세계적인 우선순위가 되어야 합니다." 비영리단체인 AI안전센터에서 나온 것인데, AI 개발을 주도하는 인사들이 서명한 것입니다. 물론 우리가 AI의 위험성에 대해 경고받은 것은 이번이 처음이 아닙니다. 우리 청취자 중 일부는 지난 3월 수백 명의 최고 기술자와 연구원들이 요구했던 일시 정지를 기억할 것입니다. 그러나 지금까지는 실제로 일시 정지가 발생하지 않았습니다. 그러나 이러한 모든 최후의 날 경고는 우리에게 AI 피해의 가능성에 대해 무엇을 믿어야 하며, 연구자와 기술자 중 현재 가장 신뢰할 수 있는 의견을 제공하는 사람이 누구인지 궁금하게 만들었습니다. 윌, 우리는 이것에 대해 이야기하기 위해 당신을 초대하고 싶었습니다. 먼저, 조금 뒤로 걸어보세요. AI안전센터의 이번 발언에 대해 간략하게 말씀해 주세요. 무엇이 이것을 촉진시켰습니까?

공유하다