반업주부의 일상 배움사

[요약] 일리아 수츠케버(OpenAI 수석 과학자) - AGI, 얼라인먼트, 스파이, 마이크로소프트 및 계몽 구축 :: with AI 본문

IT 인터넷/일반

[요약] 일리아 수츠케버(OpenAI 수석 과학자) - AGI, 얼라인먼트, 스파이, 마이크로소프트 및 계몽 구축 :: with AI

Banjubu 2023. 3. 28. 19:58
반응형


> English Summary

 

[ 요약 ]

OpenAI의 공동 창립자이자 수석 과학자인 일리야 수츠케버는 인터뷰에서 자신의 분야에서 여러 돌파구를 마련할 수 있었던 비결로 열심히 일하고 최선을 다했기 때문이라고 말합니다.
현재 GPT를 불법적으로 사용하는 사례는 많지 않지만, 외국 정부가 선전이나 사기에 오픈소스 모델을 사용하고 있을 가능성이 있습니다.
AI의 경제적 가치가 AGI에 도달하기까지의 기간에 대해서는 매년 기하급수적으로 성장하는 다년간의 기간이 될 것입니다.
낙관적인 사람들은 시간이 걸리는 것을 과소평가하는 경향이 있기 때문에 AGI까지 얼마나 걸릴지 예측하기는 어렵습니다.
서츠케버는 현재 AI의 상태를 자율주행차의 신뢰성 문제와 비교해 볼 것을 제안합니다.
대수 오차 막대의 예측 불가능한 특성을 고려할 때 2030년에 AI가 GDP에서 차지할 비율을 추정하기는 어렵습니다.
이 글에서는 AI의 GDP 기여도가 실망스러울 정도로 낮을 수도 있다는 반대의 상황을 고려해 관점을 재구성할 것을 권장합니다.
이 대화에서는 2030년에 LLM이 창출할 수 있는 경제적 가치가 거의 없을 가능성에 대해 논의되었으며, 잠재적인 장애물로 신뢰성이 언급되었습니다.
또한 현재의 제너레이티브 모델 패러다임은 AI 발전에 큰 도움이 되겠지만, 다음 패러다임은 과거의 아이디어를 통합하는 것이 될 것이라는 의견도 있었습니다.
인간의 능력을 뛰어넘는다는 측면에서는 충분히 똑똑한 신경망이 뛰어난 통찰력, 지혜, 능력을 가진 사람이 어떻게 행동할지 추정할 수 있다는 주장과 함께 넥스트 토큰 예측이 인간의 능력을 뛰어넘을 수 없다는 주장에 도전장을 던졌습니다.
이러한 인사이트는 일반인의 데이터를 통해 얻을 수 있으며, 다음 토큰 예측을 통해 그들의 행동을 추론할 수 있습니다.
저자는 독자들이 다음 토큰 예측의 더 깊은 측면과 일련의 통계를 생성하는 근본적인 현실을 이해할 수 있는 잠재력을 고려할 것을 권장합니다.
전반적으로 이 대화는 AI 개발에서 신뢰성과 통합의 중요성을 강조하고 AI가 인간의 능력을 뛰어넘을 수 없다는 개념에 도전합니다.
독자들은 다음 토큰을 예측하고 일련의 통계를 생성하는 근본적인 현실을 이해하는 데 있어 AI의 잠재력을 고려할 것을 권장합니다.
또한 AI 개발에서 신뢰성과 통합을 우선시하고 AI가 인간의 성과를 능가할 수 없다는 제한적인 믿음에 도전할 것을 권장합니다.
강화 학습에서는 대부분의 기본 강화 학습이 AI에서 이루어지고 있으며, 인간은 보상 함수를 훈련하는 데 사용되고 있습니다.
그러나 인간을 루프에서 제거하고 AI가 스스로 학습하도록 할 수 있다는 희망이 있습니다.
다단계 추론은 전용 훈련과 더 나은 모델을 통해 개선될 수 있습니다.
데이터 상황은 여전히 양호하지만 언젠가는 토큰이 부족해질 것이라는 믿음이 있습니다.
텍스트 전용 토큰은 아직까지 매우 유용할 수 있지만, 멀티모달로 가는 것이 유익해 보입니다.
검색 트랜스포머가 유망해 보입니다.
알고리즘 개선으로 인한 개선의 정도는 정량화하기 어렵습니다.
이러한 방향을 모색하기 위해서는 더 많은 연구가 필요합니다.
독자는 인간과 기계의 파트너십을 위해 AI와 협업할 수 있습니다.
개방형 AI는 과거 데이터 부족으로 인해 로봇 공학의 길을 떠났습니다.
오늘날에는 이 분야에서 앞으로 나아갈 길을 만들 수는 있지만, 많은 로봇을 만들어 단계적으로 데이터를 확보하여 더 유용한 일을 할 수 있도록 만드는 노력이 필요합니다.
하드웨어는 제한이 없지만 비용이 너무 많이 들 수 있습니다.
정렬에 대한 수학적 정의는 불가능하며, 대신 다양한 테스트, 정합성 및 적대적 스트레스 상황, 행동 분석을 통해 여러 가지 정의를 도출하여 확신을 얻게 됩니다.
모델을 야생에 출시하기 전에 필요한 신뢰도는 모델의 역량에 따라 다릅니다.
AGI를 달성하는 것은 용어의 해석에 따라 달라집니다.
정렬을 위한 다양한 경로가 유망하며, 여러 접근 방식을 조합하는 것이 가장 좋은 방법일 가능성이 높습니다.
여기에는 적대적 훈련과 신경망 분석이 포함됩니다.
이 글에서 AI 전문가인 샘 알트먼은 AI 모델의 정렬을 보장하기 위한 다양한 접근 방식과 이를 이해하기 위한 지속적인 발전의 필요성에 대해 설명합니다.
또한 연구를 지원하고 유익한 아이디어를 창출하는 AI의 가능성에 대해서도 언급합니다.
알트먼은 정렬 연구 진전에 대한 10억 달러 규모의 상금에 대한 아이디어를 언급하지만 아직 구체적인 기준이 없다고 인정합니다.
알트먼은 AI와 같은 범용 기술의 횡재를 추정하는 방법에 대한 질문에 데이터와 외삽을 예로 들었습니다.
또한 대부분의 기하급수적 증가가 기하급수적으로 유지되지 않는다는 점을 인정하지만 AI에 베팅하지는 않습니다.
이 글은 알트만이 인공지능이라는 원대한 목표에 대한 헌신과 인공지능 이후의 미래에 대한 비전에 대해 이야기하는 것으로 마무리됩니다.
전반적으로 AI 모델에 대한 지속적인 연구와 개발의 중요성, 그리고 이러한 노력을 지원할 수 있는 AI의 잠재력을 강조하고 있습니다.
독자 여러분은 AI 연구에 대한 최신 소식을 접하고 이 분야의 발전이 가져올 잠재적 영향에 대해 생각해 보시기 바랍니다.
또한 AI가 연구를 지원하고 아이디어를 창출할 수 있는 잠재력을 고려할 수도 있습니다.
또한 정렬 연구 진전에 관심이 있는 사람들은 상당한 진전이 이루어진 후 소급하여 10억 달러 규모의 상금을 수여하는 아이디어를 고려할 수 있습니다.
AGI가 도래한 후 사람들이 무엇을 할 것인지에 대한 질문은 까다롭지만, AI는 사람들이 의미를 찾고 더 많은 깨달음을 얻도록 도울 수 있습니다.
어떤 사람들은 AI의 일부가 되어 사고의 폭을 넓히고 사회의 가장 어려운 문제를 해결하고자 할 수도 있습니다.
세상은 계속 변화하고 진화할 것이며, 3000년 후에는 어떤 모습이 될지 예측할 수 없습니다.
사람들이 스스로 실수하고 스스로 진화할 수 있는 세상, AGI가 기본 안전망을 제공하는 세상이 더 흥미진진합니다.
딥러닝의 기능은 2015년에 예상했던 것과 거의 비슷합니다.
발표자는 구체적인 예측은 하지 않았지만 딥 러닝에 최대한 큰 베팅을 하고 싶다고 말했습니다.
최근 인터뷰에서 OpenAI의 샘 알트먼은 OpenAI의 팀은 업무와 신념이 매우 일치한다고 말했습니다.
또한 하드웨어와 관련해서는 플롭당 비용과 전체 시스템 비용이 가장 중요한 요소라고 생각하며, 이 점에서 TPU와 GPU 모두 상당히 유사하다고 말했습니다.
알트먼은 새로운 아이디어를 창출하는 데만 시간을 할애하기보다는 결과를 이해하고 다음에 실행할 실험을 파악하는 데 상당한 시간을 할애한다고 언급했습니다.
마지막으로 알트먼은 Microsoft가 OpenAI의 환상적인 파트너였으며 Azure에서의 교육은 훌륭한 경험이었다고 말했습니다.
독자들은 하드웨어를 평가할 때 플롭당 비용과 전체 시스템 비용을 고려하고 작업에서 결과와 현상을 이해하는 데 우선순위를 두는 것이 좋습니다.
이 글에서는 대만의 쓰나미와 같은 자연재해가 발생했을 때 AI 생태계의 취약성에 대해 설명하며, AI에 심각한 장애를 일으킬 수 있는 상황에 대해 설명합니다.
그러나 대만 이외의 지역에서도 컴퓨팅 리소스를 사용할 수 있습니다.
모델이 커질수록 추론 비용이 더 많이 들 수 있지만, 이는 유용성에 따라 달라집니다.
기업은 사용 사례에 따라 서로 다른 신경망을 사용할 수 있으며, 모델이 상품화되는 것을 방지하려면 발전과 개선을 따라잡는 것이 필수적입니다.
여러 기업의 연구 방향에 대해서는 단기적으로는 수렴이 있지만 시간이 지남에 따라 수렴-분산-융합이 있을 것입니다.
지속적인 개선과 연구를 통해 더 나은 인공지능 모델을 만들고 신뢰성을 높이는 데 집중해야 합니다.
전문가와의 대화에서 단기적인 작업에는 수렴이 있을 수 있지만, AI 개발에서 장기적인 작업에는 분화가 있을 수 있다는 데 동의했습니다.
잠재적인 보안 침해와 가중치 유출에 대한 우려가 있습니다.
전문가는 이러한 모델에서 신뢰성 및 제어 가능성과 같은 새로운 속성이 나타날 것으로 기대하지만 이러한 속성을 예측하는 것은 어렵습니다.
전문가는 모델이 올바르게 작동하도록 가르치는 데 있어 사람의 입력이 중요하다는 점을 인정합니다.
마지막으로 데이터, 트랜스포머, GPU의 가용성이 우연히 일치하는 것은 흥미로운 상황이라고 언급합니다.
독자들은 이 책을 통해 AI 개발 분야의 복잡성과 흥미진진함을 느낄 수 있을 것입니다.
데이터, GPU, 트랜스포머의 존재는 서로 얽혀 있으며 기술, 특히 더 작고 저렴한 컴퓨터, 인터넷, 게임의 발전에 의해 주도되고 있습니다.
제프리 힌튼과 같은 선구자가 없었다면 딥러닝 혁명은 더 늦어졌을지 모르지만, 지속적인 기술 발전으로 인해 결국 발견되었을 것입니다.
더 똑똑해진 모델과 잘못된 정보를 제공할 수 있는 가능성을 조율하는 것은 학문적 연구가 필요한 어려운 문제입니다.
기업들은 AI의 역량을 깨닫게 될 가능성이 높지만, 학계 연구자들은 정렬과 같은 분야에서 의미 있는 기여를 할 수 있습니다.
학계가 중요한 인사이트를 제시할 수는 있지만, 올바른 문제에 집중해야 할 수도 있습니다.
기술의 발전은 우연이 아니며, 한 분야의 발전은 다른 분야에 직접적인 영향을 미칩니다.
이 글에서 전문가는 언어 모델이 원자의 세계에 영향을 미칠 가능성, 초인적인 AI를 달성하기 위한 돌파구의 중요성, 포워드 포워드 알고리즘에 대해 설명합니다.
또한 모델에서 지능을 추구할 때 인간과 뇌에서 올바르게 영감을 얻는 것이 중요하다는 점을 강조합니다.
독자는 신경과학적 동기 부여를 위해 뉴로모픽 알고리즘을 고려할 것을 권장하며, 인간 지능을 위한 신경망이 특별히 새로운 것이 아니라는 것을 이해합니다.
전반적으로 인간과 뇌에서 영감을 얻는 것은 좋지만 본질적인 특성에 집중하는 것이 필수적이라고 전문가들은 제안합니다.
획기적인 아이디어와 구현 또는 책에서 나온 내용을 구분하지 않습니다.
독자는 AGI의 더 큰 발전을 위해 획기적인 것을 따르도록 권장됩니다.
이 글에서는 인지 과학 모델을 너무 구체적으로 설명하지 않으면서도 인간의 지능과 뇌 기능에서 영감을 얻는 것의 중요성에 대해 설명합니다.
이러한 영감에 접근하는 유익한 방법으로 신경망과 인공 뉴런의 개념을 탐구합니다.
딥러닝 혁명의 최고 연구자가 되는 것과 인내심 사이의 상관관계에 대해 논의합니다.
저자는 성공하기 위해서는 노력과 올바른 관점 등 여러 가지가 함께 어우러져야 한다고 강조합니다.
독자들에게 인간 지능에 대해 관심을 가지고 영감을 얻으라고 권유합니다.
기사는 인터뷰 대상자의 방문에 대한 인터뷰어의 감사로 끝납니다.
독자들은 복잡한 기술 주제를 다룰 때 계속 노력하고 올바른 관점을 가질 것을 권장합니다.

 

반응형

 

 

 

Ilya Sutskever (OpenAI Chief Scientist) - Building AGI, Alignment, Spies, Microsoft, & Enlightenment

https://www.youtube.com/watch?v=Yf1o0TQzry8 

 

 



 

[ Summary ]

In an interview with Ilya Sutskever, Co-founder and Chief Scientist of OpenAI, he attributes his multiple breakthroughs in his field to working hard and giving his all.
While there may not be many illicit uses of GPT currently, it is possible that foreign governments are using open source models for propaganda or scams.
As for the window of time for AI's economic value before reaching AGI, it will be a multi-year period with exponential growth each year.
It's difficult to predict how long until AGI, as optimistic people tend to underestimate the time it will take.
Sutskever suggests comparing the current state of AI to the reliability issues in self-driving cars.
It's hard to estimate the percentage of GDP that AI will account for in 2030, given the unpredictable nature of logarithmic error bars.
The article encourages reframing the perspective to consider the counterfactual where AI's contribution to GDP may be disappointingly low.
In the conversation, the possibility of little economic value being created by LLMs in 2030 was discussed, with reliability being cited as a potential hindrance.
It was also noted that the current paradigm of generative models will likely go far in the development of AI, but the next paradigm will involve integrating past ideas.
In terms of surpassing human performance, the claim that next-token prediction cannot surpass human performance was challenged, with the argument that a smart enough neural net could extrapolate how a person with great insight, wisdom, and capability would behave.
This insight could be obtained from the data of regular people and deducing their behaviors through next-token prediction.
The author encourages the reader to consider this deeper aspect of predicting the next token and its potential for understanding the underlying reality that creates a set of statistics.
Overall, the conversation emphasizes the importance of reliability and integration in the development of AI and challenges the notion that AI cannot surpass human performance.
The reader is encouraged to consider the potential of AI in predicting next tokens and understanding the underlying reality that creates a set of statistics.
They are also encouraged to prioritize reliability and integration in the development of AI and to challenge the limiting belief that AI cannot surpass human performance.
In reinforcement learning, most of the default enforcement learning is coming from AI, and the humans are being used to train the reward function.
However, there is hope for removing humans from the loop and having the AI teach itself.
Multi-step reasoning can be improved through dedicated training and better models.
The data situation is still quite good, but there is a belief that we will run out of tokens one day.
Text-only tokens can still go very far, but going multimodal seems fruitful.
Retrieval transformers seem promising.
The magnitude of improvement from algorithmic improvements is hard to quantify.
Further research is needed to explore these directions.
The reader can collaborate with AI for a human-machine partnership.
Open AI left the path of robotics due to insufficient data in the past.
Today, while it is possible to create a path forward in the field, it requires a commitment to building many robots to obtain data gradually in a step-by-step process to make them do more useful things.
Hardware is not a limitation, but it may be too expensive.
A mathematical definition of alignment is unlikely, instead multiple definitions will be achieved leading to various tests, congruence, and adversarial stress situations, and behavioral analyses leading to assurance.
The degree of confidence required before releasing a model in the wild varies on the model's capability.
Achieving AGI depends on the interpretation of the term.
Different paths to alignment are promising, with a combination of approaches likely the best path forward.
This includes adversarial training and neural net analysis.
In this article, AI expert Sam Altman discusses various approaches to ensure the alignment of AI models and the need for continued progress in understanding them.
He also mentions the possibility of AI assisting in research and generating fruitful ideas.
Altman touches on the idea of a billion-dollar prize for alignment research progress but admits to not having concrete criteria for it yet.
When asked about estimating the windfall of general-purpose technology like AI, Altman cites data and extrapolation.
He also acknowledges that most exponentials do not stay exponential but doesn't bet against AI.
The article ends with Altman discussing his dedication to the grand goal of AGI and his vision for a post-AGI future.
Overall, the takeaway is the importance of continued research and development of AI models and the potential for AI to assist in those efforts.
Readers are encouraged to stay updated on AI research and to consider the potential implications of advancement in this field.
They can also consider the potential for AI to assist in research and generate ideas.
Additionally, those interested in alignment research progress can consider the idea of a potential billion-dollar prize awarded retroactively after significant progress is made.
The question of what people will do after AGI comes is tricky, but AI could help people find meaning and become more enlightened.
Some may choose to become part AI to expand their minds and solve society's hardest problems.
The world will continue to change and evolve, and we can't predict how it will look like in 3000.
It is more exciting to have a world where people are free to make their own mistakes and evolve on their own, with AGI providing a base safety net.
The capabilities of deep learning are pretty much what was expected in 2015.
The speaker didn't have specific predictions, but wanted to make the biggest possible bet on deep learning.
In a recent interview, OpenAI's Sam Altman shared that the team at OpenAI is incredibly aligned on their work and their beliefs.
He also stated that he believes cost per flop and overall system cost are the most important factors to consider when it comes to hardware, and that both TPUs and GPUs are quite similar in this regard.
Altman noted that a significant amount of time is spent on understanding results and figuring out what experiments to run next, rather than solely on generating new ideas.
Lastly, Altman shared that Microsoft has been a fantastic partner for OpenAI and training on Azure has been a great experience.
Readers are encouraged to consider cost per flop and overall system cost when evaluating hardware and to prioritize understanding results and phenomena in their work.
The article discusses the vulnerability of the AI ecosystem in case of natural disasters such as a tsunami in Taiwan which might cause a significant setback for AI.
However, the availability of compute resources will still be available even outside Taiwan.
As models become larger, inference may become more expensive but it depends on its usefulness.
Companies can use different neural nets for different use cases, and keeping up with progress and improvement is essential to prevent models from becoming commodities.
As for research directions of different companies, there is a convergence in the near term, but there will be convergence-divergence-convergence over time.
The reader is encouraged to focus on continuous improvement and research to make AI models better and more reliable.
In a conversation with an expert, there was agreement that while there may be convergence on near term work, there may be divergence on longer term work in AI development.
There is concern about potential security breaches and the leaking of weights.
The expert is hopeful that there will be emergent properties such as reliability and controllability in these models; however, predicting these properties is challenging.
The expert acknowledges the importance of human input in teaching models to behave properly.
Finally, it is noted that the coincidence of the availability of data, transformers, and GPUs is an interesting situation.
The reader is left with an appreciation of the complexities and excitement in the field of AI development.
The existence of data, GPUs, and transformers is intertwined and driven by advances in technology, specifically smaller and cheaper computers, the internet, and gaming.
The deep learning revolution may have been delayed without pioneers like Geoffrey Hinton, but it would have eventually been discovered due to ongoing improvements in technology.
Alignment of smarter models and the potential for misrepresentation is a difficult problem that requires academic research.
While companies will likely realize the capabilities of AI, academic researchers can make meaningful contributions in areas such as alignment.
It's possible for academia to come up with important insights, but they may need to focus on the right problems.
The progress in technology is not a coincidence, and advancements in one area have a direct impact on others.
In this article, the expert discusses the possibility of language models impacting the world of atoms, the importance of breakthroughs in achieving superhuman AI, and the forward forward algorithm.
The expert also emphasizes the importance of being inspired by humans and the brain correctly in pursuing intelligence in models.
The reader is encouraged to consider neuromorphic algorithms for neuroscience motivation and understands that the neural network for human intelligence is not something particularly novel.
Overall, the expert suggests that being inspired by humans and the brain is good but it is essential to focus on the essential qualities.
There is no distinction between breakthroughs and implementations or something from the books.
The reader is encouraged to follow breakthroughs for greater progress in AGI.
The article discusses the importance of being inspired by human intelligence and brain functions while avoiding getting too specific with cognitive science models.
The concept of the neural network and artificial neuron is explored as a fruitful way to approach this inspiration.
The correlation between being a top researcher in the deep learning revolution and perseverance is discussed.
The author emphasizes the need for many things to come together in order to succeed, including hard work and the right perspective.
The reader is encouraged to be inspired by human intelligence with care.
The article ends with thanks from the interviewer for the interviewee's visit.
Readers are encouraged to keep trying and to have the right perspective when dealing with complex technological subjects.

 

 

 

 

 

 

반응형
LIST
Comments