Main Point 💡
Geoffrey Hinton is known as the godfather of artificial intelligence. He helped create some of the most significant tools in the field. But now he's warning loudly that the technology may be getting out of hand.
HINTON: These things could get more intelligent than us and could decide to take over, and we need to worry now about how we prevent that happening. I thought for a long time that we were, like, 30 to 50 years away from that. So I call that far away from something that's got greater general intelligence than a person. Now, I think we may be much closer, maybe only five years away from that.
ALLYN: Last month, more than 30,000 AI researchers and other academics signed a letter calling for a pause on AI research until the risks to society are better understood. Hinton refused to sign the letter because it didn't make sense to him.
HINTON: The research will happen in China if it doesn't happen here because there's so many benefits of these things, such huge increases in productivity.
ALLYN: Now, what do those controls look like? How exactly should AI be regulated? Those are tricky questions that even Hinton doesn't have answers to. But he thinks politicians need to give equal time and money into developing guardrails. Some of his warnings do sound a little bit like doomsday for mankind.
HINTON: There's a serious danger that we'll get things smarter than us fairly soon and that these things might get bad motives and take control.
ALLYN: Hinton isn't talking about a robot invasion of the White House, but more like the ability to create and deploy sophisticated disinformation campaigns that could interfere with elections.
Summary ✏️
'Technology is a double-edge sword.'
Neural Network를 개발한 인공지능의 대가, 토론토 대학교 제프리 힌턴 교수가 구글 연구직을 내려놓았다. 기술의 발전 속도에 걸맞은 제동 장치를 마련하지 않으면, 여러 사회 문제가 발생할 것이고 우리 모두 무방비하게 피해를 입을 수밖에 없다는 사실을 알려주려고 이 같은 행동을 취한 것으로 보인다. 제프리 힌턴 교수는 ChatGPT와 같은 생성형 AI가 발전함에 따라 인간이 기술에 대한 통제권을 잃게 될 수 있다고 말했다. 그는 인공지능이 인간의 능력을 넘어설 미래를 30-50년 후로 예견했지만, 유례없는 기술의 발전으로 그 미래가 5년 후가 될 수 있다고 전했다.
게임 이론에 따르면, 인공지능 시스템은 보상을 최대화할 수 있는 방향으로 학습하고 의사결정을 내린다. 이런 효율성 추구가 인간에게 해를 입힐 수 있다는 걸 '드론 AI 비행 시뮬레이션' 사례를 통해 확인할 수 있다. 실제가 아닌 가상 환경이었지만, AI 시스템은 인간 조작자의 개입이 임무를 방해한다고 판단해 아군인 조작자를 공격했다. 대부분의 인공지능 시스템은 방대한 양의 데이터를 학습하여 자체적으로 컴퓨터 코드를 생성하고 실행할 수 있다. 윤리적인 문제를 학습하지 않았으니 도덕적으로 행동하지 않고 오로지 이익을 최대화하기 위해 동작할 뿐이다. 의도가 어떻든, 게임에 이기기 위해서 얼마든지 자율적으로 인간에게 해를 입힐 수 있는 것이다.
가상 환경에서의 킬러 로봇을 예로 들었지만 현실에서 일어날 수 있는 진짜 문제는 따로 있다. 생성형 AI가 더 발전하면 우리는 진짜와 가짜를 구분하지 못하는 세계에서 살게 될 것이다. 잘 짜인 거짓 정보를 대량으로 생산하여 부정 선거를 치르거나 특정인에 대한 불법적인 내용을 유포하는 등 우리 삶에 악영향을 끼칠 수 있다.
AI를 연구하는 세계의 석학들은 기술이 인간을 뛰어넘어 통제권을 상실하는 상황을 피하기 위해 연구를 잠정적으로 중단하기로 서명했지만, 제프리힌턴 교수는 이들의 의견에 동의하지 않았다. 개인의 이익이든, 국익을 위해서든 안 보이는 곳에서 계속 연구가 진행될 것이기 때문이다. 제프리 힌턴 교수는 인공지능 기술을 어떤 방식으로 규제해야 하는지 명확한 답을 찾지 못했지만 정부가 기술이 사회에 미치는 부정적 영향을 완화할 수 있는 제도를 마련해야 한다고 말했다.
Reference 📖
https://www.digitaltoday.co.kr/news/articleView.html?idxno=478159
https://www.aitimes.kr/news/articleView.html?idxno=27921
'스펙 > 영어 공부' 카테고리의 다른 글
쉐도잉 100일 챌린지 완주 후기 (0) | 2023.06.27 |
---|---|
에티오피아를 감동시킨 한국 기업 Infresh (2) | 2023.06.14 |
[NPR] 애플, 가상 현실 헤드셋 'Vision Pro'를 선보이다. (0) | 2023.06.08 |