반업주부의 일상 배움사

[요약] 인공지능의 발전 인류 멸망으로 갈 수 있나? 업계의 전설들과 일론머스크, 나심탈렙, 유발하라리, 빌애크먼등의 의견은? :: with AI 본문

IT 인터넷/일반

[요약] 인공지능의 발전 인류 멸망으로 갈 수 있나? 업계의 전설들과 일론머스크, 나심탈렙, 유발하라리, 빌애크먼등의 의견은? :: with AI

Banjubu 2023. 4. 5. 09:25
반응형


> English Summary

 

[ 요약 ]

현재 인공지능이 인간보다 더 뛰어남에 따라 인류가 위험에 처할 가능성에 대한 우려가 있습니다.
일론 머스크, 스티브 워즈, 유발하라리 등 IT 산업의 리더들은 최근 이에 대한 공개 소환을 썼습니다.
인공지능 연구를 멈춰야 한다는 주장에 대해서는 업계 리더들 중 의견이 갈립니다.
이에 대한 전문가의 의견으로는 IT 업계에서 누구나 인정하는 3명의 유명 인물의 의견을 들어볼 수 있습니다.
그중 튜링상 수상자인 요시와 벤지오 박사, 제프리 힌트 교수, 얀루큰 교수가 있습니다.
요시와 벤지오 박사는 이 공개 서안에 서명하며 인류에 대한 위협이 될 수 있는 인공지능 연구를 멈추어야 한다는 강경한 입장을 취하고 있습니다.
제프리 힌트 교수는 인공지능 연구가 인류를 위협할 수 있는 특이점이라는 용어를 사용하며 이를 막을 방안을 모색하고 있습니다.
제네바 협약은 인공지능이나 로봇과 같은 무기가 민간인과 부상자 등을 침해하지 않도록 국제협약으로 정립된 것입니다.
그러나 인공지능이 강해져 인류를 위협하는 것보다는 러시아와 같은 국가들이 인공지능을 대량 살상무기에 이용하는 것이 더 두려움을 자아내는 상황이라고 지적하였습니다.
튜링 상 수상자인 얀루큰 교수님은 카톨릭 교회가 인쇄기와 활자를 유예한 것과 같이 혁신적인 기술이 대중화된다면 어떤 것이 벌어질지 고민하면 좋다는 의견을 제시한 바 있습니다.
자세한 내용은 인터뷰 전문을 확인하시길 바랍니다.
AI 연구 중단에 대한 공개서한을 조롱하는 발언은 어리석은 생각이며, 인류 파멸을 두려워하기 위한 과도한 우려라고 비판했습니다.
AI 기술은 좋은 면과 나쁜 면이 함께 있다는 것을 인정하며, 부작용을 최소화하려면 책임감 있게 개발하고 배포해야 한다고 말했습니다.
그러나 일론 머스크는 여전히 인류에 대한 AI의 위험을 경고하며 자신은 AI 리스크에 대해 불안감을 표현했습니다.
인류에 대한 AI 위협은 사소한 것이 아니며, 소행성 충돌 위험보다 훨씬 크다고 강조했습니다.
IT 분야의 3명의 노벨상 수상자들과 나심 탈렙, 빌 에크먼, 폴 크루그만 등의 의견을 들어보니, 인공지능에 대한 두려움은 전문 분야에 대한 이해가 부족한 사람들에게서 비롯되는 것이라는 것입니다.
그러므로, 인공지능을 친구로 받아들일 수 있는 것은, 정신이 맑고 필요에 따라 자신을 재창조할 수 있는 독창적인 사람들입니다.
또한, 현재는 정신이 제대로 돌아가지 않은 상황이기 때문에, 인공지능의 리스크에 대해서는 고민해야 하지만 중단할 필요는 없다는 것이 전문가들의 의견입니다.
따라서, 인공지능 개발은 계속 이루어져야 합니다.
작성자는 AI 모델을 구축하는 사람이 두려워하지만, AI 모델을 만들어본 사람이 거의 없다는 것이 이상하다고 논의하였습니다.
그리고 AI를 연구하는 사람들은 극히 일부분이고, 중국이 인공지능 분야에서 선두를 달리고 있기 때문에 서안에 대한 논의도 중요하지만, 개발을 멈추지 말아야 한다는 견해를 제시했습니다.
마지막으로 한국도 열심히 개발해야 한다는 생각을 나타내며, 엔지니어들에게 힘을 보태 달라고 요청하였습니다.

 

반응형

 

 

 

Can AI Advances Lead to Human Extinction? What do industry legends Elon Musk, Nassim Taleb, Yuval Harari, Bill Ackman, and others think?

https://www.youtube.com/watch?v=RXM2JYtpWAc 

 

 



 

[ Summary ]

There is concern about the potential for humanity to be endangered as artificial intelligence becomes more capable than humans.
Leaders in the IT industry, including Elon Musk, Steve Wozniak, and Yuval Harari, recently wrote a public summons to this effect.
Among industry leaders, opinions are divided on whether AI research should be stopped.
For an expert opinion on the matter, here are three of the most recognized names in the IT industry.
They are Turing Prize winner Dr. Benzio Yoshiwa, Professor Jeffrey Hint, and Professor Jan Luken.
Dr. Yoshihiro Benzio is a signatory to the open letter, taking a strong stance on stopping AI research that could pose a threat to humanity.
Prof. Jeffrey Hint uses the term "singularity" to describe AI research that could threaten humanity, and is looking for ways to stop it.
The Geneva Conventions are an international agreement to ensure that weapons such as artificial intelligence and robots do not harm civilians or injure others.
However, rather than AI becoming stronger and threatening humanity, it is the use of AI by countries like Russia for weapons of mass destruction that is more frightening.
The Turing Prize winner suggested that we should think about what would happen if revolutionary technologies became popular, such as the Catholic Church's moratorium on the printing press and movable type.
To learn more, check out the full interview.
Mocking the open letter on halting AI research, he criticized it as a foolish idea and an overblown fear of human destruction.
He acknowledged that AI technology has both good and bad sides, and that it must be developed and deployed responsibly to minimize side effects.
However, Elon Musk still warned of the dangers of AI to humanity and expressed his own misgivings about AI risks.
He emphasized that the threat of AI to humanity is not trivial and is far greater than the risk of an asteroid impact.
Listening to three Nobel Prize winners in IT, Nassim Taleb, Bill Ekman, and Paul Krugman, it's clear that the fear of AI comes from people who don't understand the field.
Therefore, it's the creative minds who can embrace AI as a friend, and who can reinvent themselves as needed.
In addition, experts agree that we need to think about the risks of AI, but we don't need to stop, because we're not in the right place right now.
Therefore, AI development should continue.
The author discussed that it's strange that people who build AI models are afraid of it, but very few people have ever built one.
He also expressed the view that it is important to discuss the West Coast because only a few people are studying AI, and China is leading the way in AI, but we shouldn't stop developing.
Finally, he expressed the idea that Korea should also work hard and asked the engineers to help.

 

 

 

 


#artificialintelligence #threat #humanity #callout #leaders #ITindustry #opinion #TuringPrize #Yoshiwa Benzio #Dr. Jeffrey Hint #Yanluken #professor #artificialintelligenceresearch #infringement #internationalagreements #Russia #weapons of mass destruction #stupidideas #AIrisk #NobelPrize winner #Naseem Taleb #Bill Eckman #Paul Krugman #inventive #interruption #development #AImodel #worry #China #hardworking #engineer

#인공지능 #위협 #인류 #소환 #리더 #IT산업 #의견 #튜링상 #요시와 벤지오 #박사 #제프리 힌트 #얀루큰 #교수 #인공지능 연구 #침해 #국제협약 #러시아 #대량 살상무기 #어리석은 생각 #AI 리스크 #노벨상 수상자 #나심 탈렙 #빌 에크먼 #폴 크루그만 #독창적 #중단 #개발 #AI 모델 #걱정 #중국 #열심히 개발 #엔지니어

반응형
LIST
Comments