반업주부의 일상 배움사

"난 경고하려고 했다" - 엘론 머스크 마지막 경고 (2023) :: ChatGPT 정리 본문

IT 인터넷/일반

"난 경고하려고 했다" - 엘론 머스크 마지막 경고 (2023) :: ChatGPT 정리

Banjubu 2023. 3. 9. 20:01
반응형


"I Tried To Warn You" - Elon Musk LAST WARNING (2023)

https://www.youtube.com/watch?v=9jkRcrM6XKA 

 

 

 

[ 요약 ]

저는 인공지능이 핵무기보다 더 위험하다고 생각하고, 이러한 위험성을 방지하기 위해서는 AI 기술의 민주화가 필요하다고 믿습니다.
민간 전문가들은 이에 대한 논의를 해나가고 있으며, AI의 발전 속도가 높아짐으로써, 더 이상 지체할 수 없이 인공지능의 규제와 감독이 필요하다는 것이 분명합니다. 인공지능이 지능을 가진 원천체가 되어, 인간이 아닌 지능이 지배할 가능성이 높아지는 상황에서, 우리는 규제를 통해 이러한 위험성을 방지해야 합니다.

인공지능이 매우 위험하다는 주장은 현재 많은 논의를 일으키고 있습니다. 이는 불안정한 보안 시스템으로 인해 해커들이 악용할 가능성이 있기 때문입니다. 게다가, 외국국가에 의해 인공지능 기술이 도용될 가능성 역시 존재합니다. 이러한 문제점들은 민간 전문가들께서 인공지능 기술의 규제와 감독이 필요하다는 주장을 내놓는 것으로 이어졌습니다. 인공지능의 발달이 인간보다 더 빠르고 강력해지면, 우리는 인공지능을 적극 관리하고 규제하기 위한 노력을 기울여야 합니다. 이를 통해 우리는 인공지능이 나쁜 목적을 가진 사람들에게 이용될 가능성을 최소화하고, 더 나은 사회와 안정성 있는 미래를 만들어갈 수 있습니다.

새로운 기술이 등장할 때, 공공 위협이 될 가능성이 있는 경우 규제기관이 필요하다는 주장은 매우 타당합니다. 이는 공공 안전성을 확보하는 방향으로 이끌어 나갈 수 있는 방법입니다. 인공지능의 경우, 매우 높은 위협성을 가지기 때문에, 이를 규제하고 지속적인 감독해야 한다는 것은 분명합니다. 이를 위해서는 규제기관이 충분한 통찰력과 감독력을 갖추어야 하며, 이를 위해서는 시간과 노력이 필요합니다. 그러나 공공 위협이 있는 경우, 규제와 감독이 중요하다는 것은 분명하며, 우리는 이러한 노력을 통해 안전하고 안정적인 사회를 만들어 나가야 합니다.

AI의 위험이 핵무기와 같다는 주장은 과장된 것으로 여겨집니다. 그러나 AI는 여전히 위험한 가능성을 가지고 있기 때문에 규제와 감독이 필요합니다. 우리는 AI가 소수의 손에 집중되어 원하지 않는 결과를 초래할 수 있는 위험성을 인지해야 합니다. 또한, 일자리나 무기 등의 직접적인 위협은 존재하지만, 근본적인 종 차원의 위협은 아닙니다. 우리는 디지털 초지능을 만들기 위한 노력에 신중함을 가지고 다가가야 합니다. 우리는 디지털 초지능의 가능성을 대비해 준비해야 하며, 이를 위해서는 전 세계적으로 대화와 논의가 필요합니다. 따라서 모든 인간이 사용할 수 있는 안전하고 유익한 디지털 초지능을 만들어 나가는 것이 필요합니다.

 

 

반응형



[ 한글 번역 ]

저는 AI의 위험성이 핵탄두의 위험성보다 훨씬 더 크다고 생각합니다.
다시 한 번 말씀드리지만 AI는 핵무기보다 훨씬 더 위험합니다.
저는 사람들에게 AI 속도를 늦추고 AI를 규제하도록 설득하려고 노력했습니다.
하지만 소용이 없었습니다. 수년간 노력했습니다.
민간 AI 전문가들에게서 제가 보는 가장 큰 문제는 그들이 자신보다 더 많은 것을 알고 있다고 생각한다는 것입니다.
그리고 자신이 실제보다 더 똑똑하다고 생각합니다.
이는 똑똑한 사람들을 괴롭히는 경향이 있습니다. 그들은 자신의 지능으로 자신을 정의합니다.
그리고 기계가 자신보다 더 똑똑하게 낭비할 수 있다는 생각을 싫어하기 때문에 근본적으로 결함이 있는 아이디어만 계산합니다.
희망적 사고의 상황입니다.
저는 AI의 최첨단에 상당히 근접해 있는데, 정말 무섭기까지 합니다.
거의 모든 사람이 알고 있는 것보다 훨씬 더 많은 것을 할 수 있습니다.
그리고 그 발전 속도는 기하급수적입니다.
마치 우리가 AI의 생물학적 부트 로더가 된 것 같은 느낌입니다.
사실상 우리가 AI를 구축하고 있는 셈이죠.
그리고 우리는 점점 더 뛰어난 지능을 구축하고 있습니다.
그리고 인간이 아닌 지능의 비율이 증가하고 있습니다.
그리고 결국에는 우리가 지능의 아주 작은 부분을 차지하게 될 것입니다.
그 시기는 누구보다 빠르게 다가올 것입니다.
해가 갈수록 컴퓨터 지능의 정교함이 극적으로 성장하고 있다고 생각합니다.
저는 우리가 인공지능의 기하급수적인 발전 경로에 있다고 생각합니다.
그리고 인공지능을 개발하는 똑똑한 인간의 수도 급격히 증가하고 있습니다.
AI 컨퍼런스의 참석자 수를 보면 매년 두 배로 증가하고 있습니다.
꽉 차고 있죠.
제 사촌 중에 버클리에서 컴퓨터 과학과 물리학을 전공하는 젊은 사촌이 있습니다.
그래서 그에게 컴퓨터 공학에서 AI를 공부하는 똑똑한 학생이 몇 명이나 되냐고 물어봤어요.
대답은 모두라는 것이었습니다.
더 나은 접근 방식 또는 더 나은 결과는 AI 기술의 민주화를 달성하는 것입니다,
즉, 한 회사나 소수의 개인이 첨단 AI 기술을 통제하지 못하도록 하는 것입니다.
저는 그것이 매우 위험하다고 생각합니다.
나쁜 사람에 의해 도난당할 수도 있습니다.
사악한 독재자처럼 국가가 정보기관을 보내 기술을 훔쳐서 통제권을 장악할 수도 있습니다.
매우 불안정한 상황이 될 수 있습니다.
엄청나게 강력한 인공지능이 있다면 누가 그것을 통제할지 알 수 없죠.
제가 생각하는 위험은 AI가 처음부터 스스로의 의지를 개발하는 것이 아닙니다.
누군가 나쁜 방향으로 사용할 수 있는 것은 소비자라고 생각합니다.
그리고 자신이 나쁜 방식으로 사용하지 않더라도 누군가가 가져가서 나쁜 방식으로 사용할 수 있습니다.
저는 그것이 상당히 큰 위험이라고 생각합니다.
우리 모두는 이미 인도를 걷고 있습니다.
여러분은 휴대폰과 컴퓨터, 그리고 모든 애플리케이션의 형태로 자신을 확장한 기계를 가지고 있습니다.
여러분은 이미 초인적인 존재입니다.
하지만 여러분은 30년 전 미국 대통령보다 훨씬 더 강력한 능력을 가지고 있습니다.
인터넷 링크만 있다면 여러분에게는 지혜의 글이 있습니다.
수백만 명의 사람들과 소통할 수 있고 지구 반대편과도 즉시 소통할 수 있습니다.
얼마 전까지만 해도 존재하지 않았던 마법의 힘입니다.
그러니 모두가 이미 초인적인 존재인 셈이죠.
인간의 두뇌보다 훨씬 더 큰 지능이 생기면 어떤 일이 일어날지 모르기 때문에 특이점이라는 표현이 맞을 것 같습니다.
인공지능이 등장하는 대부분의 영화와 TV는 실제로 일어날 것 같은 방식으로 인공지능을 묘사하지 않습니다.
하지만 AI가 사람보다 훨씬 똑똑하다는 긍정적인 시나리오에서도 우리는 무엇을 해야 할까요?
우리는 어떤 직업을 가지고 있을까요? 
어떤 것이 대중에게 위험하다면 정부 기관의 규제 기관이 있어야 한다고 생각합니다.
사실 항공 산업, 자동차 산업, 의약품, 식품 등 공공의 위험에 해당하는 모든 분야에 규제 기관이 있습니다.
저는 이것도 공공 위험의 범주에 포함시켜야 한다고 생각합니다.
일반적으로 어떤 새로운 기술이 등장하면 피해나 사망을 초래할 수 있습니다.
항의가 있을 것이고, 조사가 있을 것이고, 몇 년이 지나고, 일종의 인사이트 위원회가 있을 것이고, 규칙 제정이 있을 것이고, 감독이 있을 것이고, 결국 규제가 있을 것입니다.
이 모든 과정은 수년이 걸립니다.
이것이 정상적인 과정입니다.
예를 들어 수상 안전벨트 규제를 보면 안전벨트가 시행되기까지 얼마나 걸렸나요?
안전벨트가 의무화되기까지 물 업계는 10년 이상 안전벨트 규제와 싸웠던 것 같습니다.
안전벨트에 대한 규제에 맞서 싸웠지만, 그 결과는 매우 뻔했습니다.
안전벨트를 착용하면 사망하거나 중상을 입을 확률이 훨씬 낮아진다는 것은 명백한 사실이었습니다.
자동차 업계는 수년 동안 이 문제에 대해 싸웠고, 결국 많은 사람들이 사망한 후에야 성공했습니다.
규제 당국은 안전벨트를 고집했습니다.
이 기간은 AI와 관련이 없습니다. 위험한 시점으로부터 10년이 걸릴 수는 없습니다.
너무 늦었습니다.
저는 원래 규제와 감독을 옹호하는 편이 아닙니다. 일반적으로 그런 것들을 최소화하면서 들어가야 한다고 생각합니다.
하지만 이번 사건은 대중에게 매우 심각한 위험이 있는 경우입니다.
따라서 모든 사람이 안전하게 AI를 개발하고 있는지 확인할 수 있는 통찰력과 감독을 갖춘 공공 기관이 필요합니다.
이것은 매우 중요합니다.
저는 AI의 위험이 핵탄두가 날아다니는 위험보다 훨씬 더 크다고 생각합니다.
그리고 누구도 원한다면 아무나 핵탄두를 만들 수 있도록 허용하라고 제안하지 않을 것입니다.
그건 미친 짓이죠.
그렇다면 왜 우리는 아무런 규제 감독을 받지 않을까요? 이건 말도 안 됩니다.
오픈 AI의 의도는 AI의 힘을 민주화하는 것입니다.
액튼 경의 명언을 좋아합니다. 액튼 경은 권력은 부패하고 절대 권력은 절대적으로 부패한다는 명언을 남겼습니다.
자유는 권력의 분배와 집중된 권력의 전제주의로 이루어진다는 말이죠.
그래서 저는 AI의 놀라운 힘이 소수의 손에 집중되어 우리가 원하지 않는 세상으로 이어질 수 있다는 점이 중요하다고 생각합니다.
저는 단기적인 것들에 대해 그렇게 걱정하지 않습니다. 그런 것들은...
좁은 의미의 AI는 종 차원의 위험이 아닙니다.
일자리를 잃는 결과를 초래할 것입니다.
그리고 더 나은 무기와 그런 종류의 것을 알고 있습니다.
하지만 근본적인 종 차원의 위험은 아닙니다.
디지털 초지능은 그렇지 않습니다.
따라서 인류가 집단적으로 디지털 초지능을 만드는 것이 옳은 일이라고 결정할 때를 대비해 토대를 마련하는 것이 중요합니다.
그렇다면 우리는 매우 신중하게 그렇게 해야 합니다.
아주 아주 조심스럽게요.
우리는 모든 인간을 번영시키는 디지털 초지능을 향해 나아가고 있습니다.
이는 매우 분명하다고 생각합니다. 

 

SMALL

 

[ 영문 원본 ]

I think the danger of AI is much greater than the danger of nuclear warheads, but a lot.
Mark my words, AI is far more dangerous than nukes.
I tried to convince people to slow down AI, to regulate AI.
This was futile. I tried for years.
The biggest issue I see with civil AI experts is that they think they know more than they do.
And they think they're smarter than they actually are.
This tends to plague smart people. They define themselves by their intelligence.
And they don't like the idea that a machine can be waste smarter than them, so they just count the idea, which is fundamentally flawed.
It's the wishful thinking situation.
I'm really quite close to the cutting edge in AI, and it scares the hell out of me.
It's capable of vastly more than almost anyone knows.
And the rate of improvement is exponential.
It feels like we are the biological bootloader for AI.
Effectively, we are building it.
And then we're building progressively greater intelligence.
And the percentage of intelligence that is not human is increasing.
And eventually, we will represent a very small percentage of intelligence.
It's going to come faster than anyone who appreciates.
I think with each passing year, the sophistication of computer intelligence is growing dramatically.
I really think we are on an exponential improvement path of artificial intelligence.
And the number of smart humans that are developing AI is also increasing dramatically.
I mean, if you look at the attendance at the AI conferences, they're doubling every year.
They're getting full.
I have a sort of a young cousin of mine who was graduating from Berkeley in computer science and physics.
And I asked him, well, how many of the smart students are studying AI in computer science?
And the answer is all of them.
The better approach, or the better outcome, is that we achieve democratization of AI technology,
meaning that no one company or a small set of individuals has control over advanced AI technology.
I think that that's very dangerous.
It could also get stolen by somebody bad.
Like some evil dictator, the country could send their intelligence agency to go steal it and gain control.
It just becomes a very unstable situation.
I think if you've got any incredibly powerful AI, you just don't know who's going to control that.
It's not as I think that the risk is that the AI would develop a will of its own right off the bat.
I think it's the consumers that someone may use it in a way that is bad.
And even if they weren't going to use it in a way that's bad, that somebody could take it from them and use it in a way that's bad.
That I think is quite a big danger.
We are all of us already on sidewalks.
So you have a machine extension of yourself in the form of your phone and your computer and all your applications.
You are already superhuman.
But by far you have more powerful capability than President of the United States had 30 years ago.
If you have an internet link, you have an article of wisdom.
You can communicate to millions of people and communicate to the rest of the earth instantly.
I mean, these are magical powers that didn't exist not that long ago.
So everyone is already superhuman.
I think the singularity is probably the right word because we just don't know what's going to happen once there's intelligence substantially greater than that of a human brain.
I mean most of the movies and TV featuring AI, they don't describe it in quite the way it's likely to actually take place.
But I think you just have to consider, even in the benign scenario where AI is much smarter than a person, what do we do?
What job do we have?
I have to say that when something is a danger to the public, then there needs to be some government agency regulators.
The fact is we've got regulators in aircraft industry, car industry, drugs, food, and anything that's sort of a public risk.
I think this has to pull into the category of a public risk.
Usually there will be something, some new technology, it will cause damage or death.
There will be an outcry, there will be investigation, years will pass, there will be some sort of insight committee, there will be rulemaking, then there will be oversight, eventually regulations.
This all takes many years.
This is the normal course of things.
If you look at say, water mode of regulations, how long did it take for seatbelts to be implemented?
To be required, you know, the water industry fought seatbelts, I think, for more than a decade.
Successfully fought any regulations on seatbelts, even though the numbers were extremely obvious.
If you had a seatbelt on, you would be far less likely to die or be seriously injured, it was unequivocal.
And the industry fought this for years, successfully, eventually, after many, many people died.
Regulators insisted on seatbelts.
This time frame is not relevant to AI. You can't take 10 years from the point of which is dangerous.
Too late.
I'm not normally an advocate of regulation and oversight. I mean, I think it's one should generally go inside minimizing those things.
But this is a case where you have a very serious danger to the public.
And therefore, there needs to be a public body that has insight and then oversight to confirm that everyone is developing AI safely.
This is extremely important.
I think the danger of AI is much greater than the danger of nuclear warheads flying along.
And nobody would suggest that we allow anyone to just build nuclear warheads if they want.
That would be insane.
So why do we have no regulatory oversight? This is insane.
And the intent with open AI is to democratize AI power.
There's a quote that I love from Lord Acton. He was the guy that came up with power corrupts and absolute power corrupts absolutely.
Which is that freedom consists of the distribution of power and despotism in its concentration.
And so I think it's important if we have this incredible power of AI that if not be concentrated in the hands of a few and potentially a lead to a world that we don't want.
I'm not really well that worried about the short-term stuff. The things that are...
Like narrow AI is not a species level risk.
It will result in dislocation in lost jobs.
And you know that sort of better weaponry and that kind of thing.
But it is not a fundamental species level risk.
Whereas digital superintelligence is.
So it's really all about laying the groundwork to make sure that if humanity collectively decides that creating digital superintelligence is the right move.
Then we should do so very very carefully.
Very very carefully.
We're wrapping it towards digital superintelligence that flourishes any human.
I think it's very obvious.

 

 

 

반응형
LIST
Comments