반업주부의 일상 배움사

[요약] MIT 교수 "이것은 자살 경쟁이다" - 일론 머스크 등 세계 리더들이 챗GPT 개발을 멈추라고 하는 이유 :: with AI 본문

IT 인터넷/일반

[요약] MIT 교수 "이것은 자살 경쟁이다" - 일론 머스크 등 세계 리더들이 챗GPT 개발을 멈추라고 하는 이유 :: with AI

Banjubu 2023. 3. 30. 07:46
반응형


> English Summary

 

[ 요약 ]

일론 머스크가 GPT4보다 더 강력한 GPT5 개발을 중지할 것을 주장합니다.
이러한 대규모 인공지능 개발실험은 인류 전체에 치명적인 사고를 초래할 수 있는 위험성과 같은 자살 경쟁과 동등한 위험성이 있다는 의견을 지적하고 있습니다.
따라서 개발 회사인 오픈AI와 마이크로소프트는 GPT4를 개발한 후에도 GPT5와 같은 보다 강력한 인공지능을 준비하고 있는 것으로 판단됩니다.
이에 따라 인공지능 설계에 대한 안전한 표준을 설정하고 그것에 대한 전문 지식을 습득할 수 있는 6개월 동안 쉬어 가는 것을 추천합니다.
그리고 이러한 쉬어가는 기간 동안 위험성을 극소화할 수 있는 다양한 대처 방안을 고려하고 논의해 나가는 것이 중요하다는 의견을 제시하고 있습니다.

오픈 AI의 CEO인 샘 알트만은 GPT 4의 안전성에 대해 중요하게 생각하며 이미 6개월 전에 개발이 완료되었지만 안전장치 추가 등으로 작업 시간이 더 필요하다는 언급을 하였습니다.
이에 대해 이피티 요시와 벤지오 교수님 등 세계적인 석학들은 인공지능 시스템의 스마트함이 사회 위험을 끼칠 가능성을 지닌다는 우려를 표명하고 있습니다.
하지만 샘 알트만은 이러한 위험성을 인지하고 있으며, 빠른 시일 내에 공개를 통해 사람들의 피드백을 적극 반영하여 잠재적인 위험을 최소화시키는 방안으로 출시할 것이라 강조하고 있습니다.

그러나 이런 경쟁이 군비 경쟁이 아니라 자살 경쟁으로 가고 있다고 합니다.
적극적으로 인공지능 기술을 개발하는 것도 중요하지만, 안전을 고려해서 신중하게 움직이자는 제안입니다.

MIT 교수는 인공지능이 인류에게 위험을 끼칠 수 있기 때문에 개발을 멈추고 모두가 논의해야 한다고 합니다.
인공지능 전문가들과 학계에서도 비슷한 의견이 있다고 합니다.
그러나 이번 6개월의 유예 기간이 연구를 막을 수 있을지는 미지수입니다.
이에 대한 안전장치도 확인할 수 있는지 의문이 있습니다.

일론 머스크는 오픈 AI와 갈등이 있었다고 알려져 있습니다.
현재 오픈 AI가 마이크로소프트 등 빅테크 업체와 손잡고 있는 상황에서 일론 머스크는 오픈 AI와 경쟁하는 AI 기술을 만들기 위한 시도를 하고 있다는 소문도 있습니다.
이러한 환경에서 기술 격차를 줄이기 위해 오픈 AI 독주를 막으려는 시도가 있는 것으로 보이며, 이에 대한 우려도 있습니다.

 

반응형

 

 

 

MIT Professor "This is a Suicide Race" - Why Elon Musk and other world leaders are telling us to stop developing ChatGPT

https://www.youtube.com/watch?v=k2mIlUjmHds 

 

 



 

[ Summary ]

Elon Musk calls for a halt to development of GPT5, which is more powerful than GPT4.
The opinion is that such large-scale AI development experiments have the equivalent of a suicidal race, with the risk of causing catastrophic accidents for the entire human race.
Therefore, it is believed that the development companies OpenAI and Microsoft are preparing more powerful AI such as GPT5 even after developing GPT4.
As a result, we recommend taking a six-month pause to establish safe standards for AI design and to gain expertise in the field.
We also believe it's important to consider and discuss different ways to minimize risk during this pause.

Sam Altman, CEO of Open AI, said that the safety of GPT 4 is important to him, and that even though the development of GPT 4 was completed six months ago, more time was needed to add safeguards.
In response, world-renowned scholars such as Ippiti Yoshi and Professor Benzio have expressed concern about the potential for AI systems to become too smart and pose risks to society.
However, Sam Altman emphasizes that the company is aware of these risks and will be open to public feedback as soon as possible to minimize potential risks.

However, he says that this race is becoming less of an arms race and more of a suicide race.
While it's important to aggressively develop AI technology, the suggestion is to move cautiously and with safety in mind.

The MIT professor says that AI could pose a risk to humanity, and that development should be stopped and discussed by all.
AI experts and academics are said to have similar opinions.
However, we don't know if this six-month moratorium will stop research.
It is also questionable whether safeguards can be identified.

Elon Musk is known to have had a conflict with open AI.
Now that Open AI is partnering with big tech companies like Microsoft, there are rumors that Elon Musk is trying to create an AI technology that competes with Open AI.
In this environment, there are concerns that there are attempts to prevent an Open AI monopoly in order to close the technology gap.

 

 

 

 

 

 

반응형
LIST
Comments