반업주부의 일상 배움사

[요약] 제1세대 인공지능 박사가 말하는 인공지능 수준 [신과대화: 조봉한 깨봉수학 대표] :: with AI 본문

IT 인터넷/일반

[요약] 제1세대 인공지능 박사가 말하는 인공지능 수준 [신과대화: 조봉한 깨봉수학 대표] :: with AI

Banjubu 2023. 3. 27. 01:15
반응형


> English Summary

> English Full Text

 

[ 요약 ]

ChatGPT의 능력은 아직 1%도 안 된 것으로 보인다.
인공지능이란 컴퓨터 내부 소프트웨어로 뇌를 본따서 만드는 것이다.
최근에는 ChatGPT와 같은 기술이 인기를 얻어 GPT주식이 급등하고 있지만, 고려해야 할 것은 'Dot-com Bubble'과 같은 가능성이 있다는 것이다.
이제는 인공지능 전문가들이 있는데, 이번 시간에는 AI와 NATURAL INTELLIGENCE에 대한 개념, 인공지능 회사의 핵심 기술 여부를 판단하기 위한 방법 등을 다룰 것이다.
ChatGPT의 능력은 아직 1%도 안 된 것으로 보인다.
인공지능이란 컴퓨터 내부 소프트웨어로 뇌를 본따서 만드는 것이다.
최근에는 ChatGPT와 같은 기술이 인기를 얻어 GPT주식이 급등하고 있지만, 고려해야 할 것은 'Dot-com Bubble'과 같은 가능성이 있다는 것이다.
이제는 인공지능 전문가들이 있는데, 이번 시간에는 AI와 NATURAL INTELLIGENCE에 대한 개념, 인공지능 회사의 핵심 기술 여부를 판단하기 위한 방법 등을 다룰 것이다.
1950년 앨런튜링이 개발한 지능 평가 테스트가 컴퓨터 사이언스에서 오랫동안 회자되는 방법 중 하나가 되었다.
이 테스트는 사람과 컴퓨터가 대화를 하다가 누가 말하는지 구분하지 못하면 컴퓨터가 지능을 가졌다고 판단하는 방법이다.
컴퓨터 개발이 천천히 진행되던 당시에 튜링은 계산 능력을 궁극적으로는 사람의 지능까지 갖게 될 것이라는 예측을 하였다.
현재 인공지능은 다양한 분야에서 연구되고 있으며, 과거의 변화를 보면 컴퓨터 기술은 전쟁을 통해 발전하였으며, 두 가지 방향으로 나뉘어져 있다.
하나는 인간의 사고 방식을 모방하는 방식이며, 다른 하나는 적은 시간 내에 빠른 계산을 수행하는 방식이다.
이제는 두 가지 방식이 합쳐져 발전하고 있다.
ChatGPT의 능력은 아직 1%도 안 된 것으로 보인다.
인공지능이란 컴퓨터 내부 소프트웨어로 뇌를 본따서 만드는 것이다.
최근에는 ChatGPT와 같은 기술이 인기를 얻어 GPT주식이 급등하고 있지만, 고려해야 할 것은 'Dot-com Bubble'과 같은 가능성이 있다는 것이다.
이제는 인공지능 전문가들이 있는데, 이번 시간에는 AI와 NATURAL INTELLIGENCE에 대한 개념, 인공지능 회사의 핵심 기술 여부를 판단하기 위한 방법 등을 다룰 것이다.
1950년 앨런튜링이 개발한 지능 평가 테스트가 컴퓨터 사이언스에서 오랫동안 회자되는 방법 중 하나가 되었다.
이 테스트는 사람과 컴퓨터가 대화를 하다가 누가 말하는지 구분하지 못하면 컴퓨터가 지능을 가졌다고 판단하는 방법이다.
컴퓨터 개발이 천천히 진행되던 당시에 튜링은 계산 능력을 궁극적으로는 사람의 지능까지 갖게 될 것이라는 예측을 하였다.
현재 인공지능은 다양한 분야에서 연구되고 있으며, 과거의 변화를 보면 컴퓨터 기술은 전쟁을 통해 발전하였으며, 두 가지 방향으로 나뉘어져 있다.
하나는 인간의 사고 방식을 모방하는 방식이며, 다른 하나는 적은 시간 내에 빠른 계산을 수행하는 방식이다.
이제는 두 가지 방식이 합쳐져 발전하고 있다.
이 글은 컴퓨터 구조와 발전에 대해 다루고 있습니다.
컴퓨터는 CPU와 메모리로 이루어져 있으며, 계산과 정보 저장에 영향을 미칩니다.
또한, 인공지능은 자율주행을 위해 큰 컴퓨터가 필요하며, 연산 설계와 훈련을 통해 발전하고 있습니다.
특히, 엔비디아는 비슷한 구조의 그래픽 칩을 발전시켜 인공지능 분야에서 큰 역할을 하고 있습니다.
인간 뇌를 모방한 연결된 세포들도 발전하고 있으며, 이들은 시냅스를 통해 사물을 인식하게 됩니다.
이러한 발전은 트레이닝을 거치면 쉬워지며, 마이크로소프트, 애플 등 기업들의 경쟁으로 인한 발전이 큰 역할을 하고 있습니다.
ChatGPT의 능력은 아직 1%도 안 된 것으로 보인다.
인공지능이란 컴퓨터 내부 소프트웨어로 뇌를 본따서 만드는 것이다.
최근에는 ChatGPT와 같은 기술이 인기를 얻어 GPT주식이 급등하고 있지만, 고려해야 할 것은 'Dot-com Bubble'과 같은 가능성이 있다는 것이다.
이제는 인공지능 전문가들이 있는데, 이번 시간에는 AI와 NATURAL INTELLIGENCE에 대한 개념, 인공지능 회사의 핵심 기술 여부를 판단하기 위한 방법 등을 다룰 것이다.
1950년 앨런튜링이 개발한 지능 평가 테스트가 컴퓨터 사이언스에서 오랫동안 회자되는 방법 중 하나가 되었다.
이 테스트는 사람과 컴퓨터가 대화를 하다가 누가 말하는지 구분하지 못하면 컴퓨터가 지능을 가졌다고 판단하는 방법이다.
컴퓨터 개발이 천천히 진행되던 당시에 튜링은 계산 능력을 궁극적으로는 사람의 지능까지 갖게 될 것이라는 예측을 하였다.
현재 인공지능은 다양한 분야에서 연구되고 있으며, 과거의 변화를 보면 컴퓨터 기술은 전쟁을 통해 발전하였으며, 두 가지 방향으로 나뉘어져 있다.
하나는 인간의 사고 방식을 모방하는 방식이며, 다른 하나는 적은 시간 내에 빠른 계산을 수행하는 방식이다.
이제는 두 가지 방식이 합쳐져 발전하고 있다.
이 글은 컴퓨터 구조와 발전에 대해 다루고 있습니다.
컴퓨터는 CPU와 메모리로 이루어져 있으며, 계산과 정보 저장에 영향을 미칩니다.
또한, 인공지능은 자율주행을 위해 큰 컴퓨터가 필요하며, 연산 설계와 훈련을 통해 발전하고 있습니다.
특히, 엔비디아는 비슷한 구조의 그래픽 칩을 발전시켜 인공지능 분야에서 큰 역할을 하고 있습니다.
인간 뇌를 모방한 연결된 세포들도 발전하고 있으며, 이들은 시냅스를 통해 사물을 인식하게 됩니다.
이러한 발전은 트레이닝을 거치면 쉬워지며, 마이크로소프트, 애플 등 기업들의 경쟁으로 인한 발전이 큰 역할을 하고 있습니다.
이 글에서는 딥 러닝 기술과 그 발전 과정에 대해 설명했습니다.
딥 러닝이란 레이어가 많이 연결된 형태를 띄고 있기 때문에 이 이름이 붙었습니다.
인공지능의 발전은 폰 노이만 아키텍처의 등장부터 시작되었으며, 최신 버전의 딥 러닝 기술을 이용하여 복잡한 인지 과정을 이해하고 학습할 수 있게 되었습니다.
딥 러닝을 이용하면 사람들이 모여있기 때문에 단어를 느리게 처리할 수밖에 없는 문제를 해결할 수 있습니다.
또한, 딥 러닝을 이용하여 인공지능이 고양이와 같은 사진도 인지할 수 있도록 발전시킬 수 있습니다.
딥 러닝은 사람 뇌처럼 여러 칸으로 레이어를 늘려서 구현하는 것이 특징입니다.
이 글을 읽은 독자들은 딥 러닝 기술의 발전을 더욱 주목해 볼 필요가 있습니다.
ChatGPT의 능력은 아직 1%도 안 된 것으로 보인다.
인공지능이란 컴퓨터 내부 소프트웨어로 뇌를 본따서 만드는 것이다.
최근에는 ChatGPT와 같은 기술이 인기를 얻어 GPT주식이 급등하고 있지만, 고려해야 할 것은 'Dot-com Bubble'과 같은 가능성이 있다는 것이다.
이제는 인공지능 전문가들이 있는데, 이번 시간에는 AI와 NATURAL INTELLIGENCE에 대한 개념, 인공지능 회사의 핵심 기술 여부를 판단하기 위한 방법 등을 다룰 것이다.
1950년 앨런튜링이 개발한 지능 평가 테스트가 컴퓨터 사이언스에서 오랫동안 회자되는 방법 중 하나가 되었다.
이 테스트는 사람과 컴퓨터가 대화를 하다가 누가 말하는지 구분하지 못하면 컴퓨터가 지능을 가졌다고 판단하는 방법이다.
컴퓨터 개발이 천천히 진행되던 당시에 튜링은 계산 능력을 궁극적으로는 사람의 지능까지 갖게 될 것이라는 예측을 하였다.
현재 인공지능은 다양한 분야에서 연구되고 있으며, 과거의 변화를 보면 컴퓨터 기술은 전쟁을 통해 발전하였으며, 두 가지 방향으로 나뉘어져 있다.
하나는 인간의 사고 방식을 모방하는 방식이며, 다른 하나는 적은 시간 내에 빠른 계산을 수행하는 방식이다.
이제는 두 가지 방식이 합쳐져 발전하고 있다.
이 글은 컴퓨터 구조와 발전에 대해 다루고 있습니다.
컴퓨터는 CPU와 메모리로 이루어져 있으며, 계산과 정보 저장에 영향을 미칩니다.
또한, 인공지능은 자율주행을 위해 큰 컴퓨터가 필요하며, 연산 설계와 훈련을 통해 발전하고 있습니다.
특히, 엔비디아는 비슷한 구조의 그래픽 칩을 발전시켜 인공지능 분야에서 큰 역할을 하고 있습니다.
인간 뇌를 모방한 연결된 세포들도 발전하고 있으며, 이들은 시냅스를 통해 사물을 인식하게 됩니다.
이러한 발전은 트레이닝을 거치면 쉬워지며, 마이크로소프트, 애플 등 기업들의 경쟁으로 인한 발전이 큰 역할을 하고 있습니다.
이 글에서는 딥 러닝 기술과 그 발전 과정에 대해 설명했습니다.
딥 러닝이란 레이어가 많이 연결된 형태를 띄고 있기 때문에 이 이름이 붙었습니다.
인공지능의 발전은 폰 노이만 아키텍처의 등장부터 시작되었으며, 최신 버전의 딥 러닝 기술을 이용하여 복잡한 인지 과정을 이해하고 학습할 수 있게 되었습니다.
딥 러닝을 이용하면 사람들이 모여있기 때문에 단어를 느리게 처리할 수밖에 없는 문제를 해결할 수 있습니다.
또한, 딥 러닝을 이용하여 인공지능이 고양이와 같은 사진도 인지할 수 있도록 발전시킬 수 있습니다.
딥 러닝은 사람 뇌처럼 여러 칸으로 레이어를 늘려서 구현하는 것이 특징입니다.
이 글을 읽은 독자들은 딥 러닝 기술의 발전을 더욱 주목해 볼 필요가 있습니다.
이 글은 인공지능과 관련한 내용을 다루고 있습니다.
컴퓨터가 사진을 구분하는 과정, 인공지능과 기존 프로그램의 차이, 튜링 머신 등에 대해 설명하고 있습니다.
인공지능 프로그램은 블랙박스를 트레이닝하여 모델을 만들고, 뉴런과 시냅시스를 통해 이를 실행합니다.
또한, 인공지능은 유튜브 등에서 추천되는 영상을 결정하는 데에도 사용됩니다.
마지막으로, 예측할 수 없는 다양한 변수가 존재하는 환경에서 어떻게 인공지능을 훈련시키는지에 대한 고민이 필요하다는 것을 강조하며 글을 마무리합니다.

 

반응형

 

 

 

A first-generation AI doctor talks about the level of artificial intelligence [Interview with Shin: Bonghan Cho, CEO of Kakbong Suhak]

https://www.youtube.com/watch?v=vCr6Frmritg 

 

 



 

[ 한글 전체 ]

ChatGPT에 능력은 어느 정도인가요?
ChatGPT의 능력이라는 건 그 블랙박스가 얼마나 훌륭한가 하는 거죠.
넣어서 뭔가 결과를 내놓는 그 사이에 있는 블랙박스에요.
블랙박스에 얼마나 그 능력이 있느냐는 사람의 뇌에 스냅시스 개수가 약 100조개라는 것을 고려해야 해요.
ChatGPT를 보면 시냅시스 숫자가 1750억 개 정도라 매우 적어요.
그렇다면 아직 1%도 안 된 것이죠.
현재 인공지능이란 무엇인가요?
엄마는 컴퓨터, 아빠는 지금 이제 컴퓨팅 하는 것은 돌아가는 하드웨어는 어쩔 수 없이 그 폰 너희만 아키텍처에서 잘하는 그런 컴퓨터를 쓰고 대신 그 안에 들어가는 프로그램 움직이게 하는 거예요.
그 소프트웨어는 이 뇌를 본따서 집어넣는 거죠.
경제에 신들을 모시고 그분들의 깊은 인사이트를 함께 나눠보는 시간, 신과 대화 시간이죠.
오늘은 저희 3% TV 신과 대화 시간에 오셔서 뭐 조회수도 물론 잘 나오시겠지만 특히 그 댓글 반응이 아주 뜨거운 그분을 다시 모셨습니다.
나왔다 하면 댓글로 아주 찬양을 받고 계신 우리 개봉 수학의 조봉한 박사님을 모시겠습니다.
어서 오세요.
안녕하십니까.
반갑습니다.
수학적인 간으로 저를 개조시켜주고 계신 사실.
뭐, 저를 이제 인도해 주시긴 합니다만, 제안에 어쩌면 그게 있었다면 그거를 꺼내주신 것이죠.
그렇게 전 보고 있습니다.
아, 맞는 말씀입니다.
그런데 많은 분들이 사실 안에 담고 있으세요.
사실은 그렇죠.
근데 이제 거의 다 죽었죠.
학교를 다니면서 안에 있는 걸 다 죽이셨어요.
근데 오늘은 의외로 수학도 수학이지만 인공지능, 챗 GPT 얘기를 해주신다고 깜짝 놀랐습니다.
아, 그래서 혹시나 요즘에 최근 GPT가 워낙 뭐 주식 시장에도 뜨겁다 보니까 고발한 타서 살짝 그냥 편승하시려는 건 아닌가요?
만약 그렇다면 저는 여기서 바로 접습니다.
그렇게는 못 합니다.
우리는 항상 전공을 차리는 거죠.
아, 그럼 채취 뷰티는 요즘 인기 있으니까 나도 한번 얘기해 볼게.
이건 분명히 아니신 거죠?
저는 박사님이 그렇게 생각하지 않습니다.
우리가 12월에 잠깐 ChatGPT에 대해서 이야기를 했었죠.
그 당시는 대부분이 모르고 무엇인지도 몰랐는데, 1월에는 주가가 급격히 올랐습니다.
오늘 아침 뉴스에서도 ChatGPT에 관한 이야기가 많이 나왔는데, 이제는 대부분의 관심이 인공지능에 집중되어 있습니다.
이런 난리가 벌어지기는 한데, 그렇다해도 이야기가 나오면 “Dot-com Bubble”이 생각납니다.
그 당시에는 인터넷에서 닷컴 계열 회사들이 활발하게 떠오르기 시작한 시점이었습니다.
아마존과 같은 회사들은 이미 사용자 분석을 통한 데이터 처리 및 분석에 대한 선구자로서 성장했던 시기였습니다.
하지만, 이 시기에 떠오르던 회사들은 그냥 "닷컴"이라는 이름이나 "디지털"이라는 말만 붙여 작명돼서 활동을 시작했습니다.
그 중 일부 회사들은 꽤 성장할 수 있는 가능성이 있었지만, 대부분은 폭망했습니다.
한국에서도 이런 비슷한 회사들이 적지 않았습니다.
그래도 이제는 조봉환 박사님, 깨봉석 선생님과 같은 인공지능 전문가들이 자리 잡고 있습니다.
조봉환 박사님은 서울대학교 컴퓨터공학과를 졸업하시고 USC에서 인공지능 박사학위를 받으셨습니다.
곧 수학교육 등 다른 분야에서도 선도적인 역할을 수행할 것입니다.
이런 생각이 있으셔서, 이제 사실 사이드로 시작하신 게 지금은 굉장히 커졌습니다.
원래는 인공지능 즉, 컴퓨터 입장에서 보면, 이제 첫 GPT 열풍이 약간 걱정되는 부분도 있으신 것 같습니다.
그렇죠, 그래서 사실 이제 3% 독자들인 구독자들의 수준이 좀 높아요.
이 주식에 대한 전망이나 이런 걸 리서치를 굉장히 많이 합니다.
그게 이제 3%가 제공하는 가장 큰 메리트입니다.
그래서 아, 여기에서 진짜 좀 확실하게 기준을 알려줘야겠다는 생각이 들었습니다.
아, 인공지능, 처리피티.
이거 막 마른만큼, 관련 주식 많이 오르는데, 그냥 따라갈게 아니라, 인공지능이라고만 붙으면 무조건 올라가는데 이제 인공지능이 핫하니까 그렇게 따라가다가는 레밍처럼 빠져 죽을 수 있습니다.
그래서 인공지능이 실제로 어떤 영향력이 있고, 회사로서는 우리가 투자해야 할 회사는 실제 핵심 기술을 가지고 있는지, 없는지.
이게 중요하지 않겠어요?
그걸 우리가 판단할 수 있을까요?
그래서 오늘이 시간이 이제 필요한 거죠.
아, 매우 중요한 시간입니다.
인공지능을 한다는 회사들이 굉장히 많은데, 과연 그 회사들이 진짜냐 아니면 껍데기냐.
그렇죠.
이걸 구분하려면, 사실은 포장만 잘해도 일반인으로서는 잘 모르잖아요.
이게 포장에서 나오는 건지, 그 안에 진짜 본질, 핵심 기술이 있는지.
그 핵심 기술은 남의 걸 쓰는지, 이런 거가 중요한 거예요.
그걸 우리가 이번 시간에 밝혀낼 수 있을까요?
이번 시간, 이번 시리즈를 통해서.
아, 시리즈로 갑니까?
다 할 수 있으면 좋겠고, 길어지면 좋겠습니다.
좋습니다.
자, 그러면 일단 우리가 그 인공지능이란 것에 대해서, AI, 즉, 아티피셜 인텔리전스라고 해서, 우리가 좀 해서 개념부터 좀 알고 넘어가죠.
아, 좋은 방법입니다.
바로 그게, 이제 인공지능을 우리가 접근하는 방법.
정확하게는 모르겠고, 그냥 요즘에 인공지능 여기저기서 나오니까 그냥 이게 알아서 뭘 해주는 거, 뭐 만들어 주고, 사진 찍어줘, 뭘 알아봐주고, 이런 거가 이제 인공지능 같은데, 정말 인공지능이란 무엇인가요?
그러니까, 아티피셜 인텔리전스인 AI라고 하는 것이 이제 상대되는 말은 내추럴 인텔리전스죠.
우리의 지능인데 이제 아티피셜 인텔리전스가 지향하는 것이 바로 내추럴 인텔리전스에요.
즉, 사람의 지능을 따고 싶은 거죠.
그래서 지능의 기준이 무엇인가, 어떤 테스트를 통과하면 지능이 있다고 할 수 있는가, 이러한 테스트를 만든 사람이 누구인가 하는 것이 인공지능의 목표입니다.
50년 전에 "이미테이션 게임"을 보신 적이 있나요?
그 영화에서 유명한 영국 배우 컴버배치가 나와요.
제목을 보면서는 짝퉁 게임인 줄 알았는데, 실제로는 2차 대전 때 독일 암호를 해독해 초기적인 형태의 컴퓨팅 기술을 만들었던 앨런 튜링의 이야기였습니다.
이것이 컴퓨팅 학문의 시작이 되었죠.
이제 이 테스트를 만든 사람인 앨런 튜링은 지능의 유무를 어떻게 판단할 수 있는 기준을 만들었습니다.
놀랍게도, 테스트 방법은 아주 오랫동안 가장 회자되는 컴퓨터 사이언스 방법 중 하나입니다.
이 방법은 이렇습니다.
사람과 어느 쪽 방에 지능이 있는 컴퓨터가 있는데, 상대와 대화를 하다가 컴퓨터에서 나오는지 사람에서 나오는지를 구분하지 못하면 컴퓨터가 지능을 가졌다고 평가하게 됩니다.
이게 지능을 평가하는 굉장히 놀라운 기준이 되었다는 이야기죠.
이 방식은 컴퓨터 사이언스에서 오랫동안 회자되는 방법 중 하나입니다.
앨런 튜링은 정말 천재인 것 같습니다.
그때 당시에 사실 그런 테스트가 전혀 필요도 안 했을 거고, 그러니까 그 당시에는 자기가 계산만 좀 빠르게 하는 컴퓨터를 냈는데, 이 튜링의 예측으로는 이러한 계산이 빠른 계산이 궁극적으로는 사람의 지능까지 갖게 될 것이다 라는 걸 예측했었습니다.
그래서 그 테스트가 지금도 존재하고 쓰이고 있습니까?
쓰이고 있죠.
결국 1950년에 논문에 발표했었으니까, 지금 한 70여 년이 지난 다음에 이게 성공을 한 거죠.
그 튜링 테스트를 왜냐하면 선생님들도 모르잖아요.
어떻게 보면 정말 짧은 시간 안에 우리 10년이라는 거죠.
그 튜링도 그런 예측은 했지만, 사실은 어떠한 그 눈에 보이는 가시적인 지능이라는 거, 내추럴 인텔리전스 같은 그런 게 안 보일 때 그런 예측을 한 거거든요.
그거는 진짜 참 대단한 거 같은데, 그 말이 있죠, 인공지능엔 단어가 조금 약간 막 막 쓰였던 측면이 좀 있는 거 같아요.
그래서 예전에 세탁기 탈수기 이런 거 중에 인공지능 세탁기가 있었어요.
그 인공지능은 뭐였냐면, 빨래를 집어넣으면, 지가 한 세 바퀴 돌려보고, 아, 이거 몇 키로다, 물을 얼만큼 넣어야 되겠다, 몇 시간 돌리고, 몇 분에 탈수 들어가서 대충 짜는데 한 92분 딱 걸린다 이거 알려주는 게 인공지능이었거든요.
기억나시죠?
인공지능 선풍기도 있었어요.
사실 인공지능이 그냥 내가 굳이 버튼 안 눌러도 되는 정도면 인공지능인가 이제 이렇게 이제 생각하시는 분도 많거든요.
근데 이제 그거는 아니고, 인간이 다른 인간이 물어봤을 때, 이 인간과 인공지능이 대답했을 때, 그걸 구별 못 해요.
이게 이제 인공지능인 거예요.
근데 이제 인공지능을 정의하는 거가 여러 가지 뭐 관점에서 할 수는 있어요.
방금 말씀하신 세탁기가 인공지능이 있다.
그거는 그 시대에 잘 못하던 것을 했기 때문에 인공지능이라고 하는 거고, 상대적 개념으로, 그래서 항상 그 컴퓨터 사이언스 안에 인공지능이라는 부분은 쭉 발전해왔습니다.
예전에는 체스이기는 거, 그 전에 가서 오목이기는 거, 뭐 이런 것도 인공지능이라고 했었어요.
아 그러네요.
왜냐면 그때는 그것조차도 못 했기 때문에, 그 철수 황제를 처음 읽었을 때는 정말 충격이었습니다.
그렇죠, IBM이 알파고를 내놓으면서 바둑에 대해 "500년 안에는 이길 수 없을 것이다" 라는 얘기를 많이 했었는데, 벌써 바둑이 이긴 지 오래입니다.
어떻게 하면 바둑을 잘 할 수 있을까요?
제가 공부할 때 80년대때는 가장 잘 하는 것이 한 5단정도였습니다.
그렇다면, 이제 계속 발전해온 것이 이제 현재이며, 지금은 게임이 불가능하다는 것입니다.
[웃음] 이러한 기준을 정한 튜링은 가히 천재라고 볼 수 있으며, 그 컴퓨터서커스의 상징은 지금 튜링어워드라고 부르는 것입니다.
수학은 풍부한 분야지만, 컴퓨터는 튜링상 같은 것으로 볼 수 있습니다.
이것은 그가 받으신 상과 프로젝트에 대해 제가 이해한 것입니다.
인공지능을 연구하거나, 서비스를 제공하려는 수많은 기업 및 과학자들이 지금도 계속 연구하고 있으니, 그 방향을 대략적으로 알아보는 것이 좋을 것입니다.
세상을 이해하기 위해서는, 그동안 일어났던 변화를 살펴야 합니다.
예측을 하려면 항상 변화를 봐야 하기 때문입니다.
그러므로 이제 변화를 살펴보자는 것이죠.
지금까지의 변화는 재미있는 부분도 있으며, 전반적인 컴퓨팅에 대한 시각을 갖게 됩니다.
하늘에 있는 화살은 사진만 찍으면 어디로 가는지 알 수 없지만, 어디서 나왔는지를 보이면 어디로 나아갈지를 알 수 있습니다.
그래서 과거의 궤적을 보면, 이제 1940년에 이 튜링이 등장했으며, 큰 기술들은 언제나 전쟁에서 생겨났습니다.
결국 사람들은 어떤 전쟁을 통해 몸과 머리를 다 때려넣으면서도 살아나야 하니까, 집중해서 어떤 것을 할 때, 중요한 것은 그 가운데 하나가 튀어나오는 것입니다.
그래서 그 전쟁이었는데, 그 2차 세계대전 때는 아까 튜링처럼 이쪽 미국에서도 맨하탄 프로젝트 뭐 그런 거 아시잖아요?
근데 거기에 가장 핵심은 뭐냐면, 이 포 날라가는 거 계산하는 거 등등 이런 거거든요.
근데 그 계산하려면 이제 빨라야 되니까, 그래서 이제 컴퓨터를 이제 발전시키기 시작했는데, 두 갈래 길로 이게 생긴 거예요.
하나는 아까처럼 튜링이나 그런 컴퓨팅 계산하는 계산을 빨리 하자.
사람이 잘 못하고 못하는게 못한다는 말은 느리고 이런 것들을 아주 빨리 하는 게 중요하다.
그래서 이런 쪽으로 간 방면이 하나가 있고, 사람의 능력을 뛰어넘는 엄청나게 빠른 계산기술.
그 계산기술이 우선 중요하겠다.
이 방향으로 한 관계가 한계가 갖고, 또 다른 방향은 그래도 사람의 지능을 연구하니까, 사람의 뇌를 닮아야 되지 않겠느냐 해서, 사람 뇌의 구조에 비싸게 가야겠다라고 한, 이 두 가지 방향이 있었어요.
컴퓨터를 인간처럼 우리 사람 생각하듯이 만들자는 쪽 하나랑, 엄청나게 인간이 따라갈 수 없을만큼 빨리 계산하는 거에 탁월하게 능력을 만들어 보자 아, 요거 두 가지의 길로 갔어요.
이제 두 가지 끼리 이제 이렇게 나눠진 거죠.
실질적으로 나눠졌다가 한쪽 길이 겨울에 들어가면, 이쪽 길만 쭉 발전하고, 그러는 거죠.
그러니까 선택을 잘해야 한다는 얘기죠.
근데 또 어떻게 보면, 그 두 길이 엄청나게 빠른 연산 기술 이름도 있어야, 또 사람처럼 생각하는 게 가능해지는 거 아닙니까?
맞습니다.
그래서 이제 훌쩍 뛰어나서 지금 걸 보면 그 두 가지가 합쳐진 거죠.
사실은 그렇죠.
그래야 될 것 같아.
구조는 어쨌든 빠른 계산을 위한 구조인데, 마치 돌아가는 것은 사람처럼.
그러한 것들을 시뮬레이션 하는 거죠.
기계에다가, 그게 현재의 인공지능 모습이에요.
저는 이제 가끔 제가 운전을 하면서 그런 걸 느낄 때가 있거든요.
뭐를 느끼냐면 이제 제가 운전할 때는 당연히 사실 별 생각 없이 그냥 가잖아요.
그냥 가다가 이제 어디서 우회전 할지 생각만 하고 있을 때도 많은 장면들이 뇌 속으로 들어오는데, 계속 연산하고 있을 것 같다.
무슨 정보가 들어오는지를 봐서 판단하지 않고 자동으로 처리하고 있는 것이다.
자율주행을 하려면 큰 컴퓨터가 필요하다는 것을 가끔 생각한다.
발은 맞고 반은 틀리는 경우도 있다.
우리가 움직일 수 있는 이유는 판단하지 않고 그냥 보고 결정하기 때문이다.
즉, 계산하지 않고도 나무나 차, 도로 등에 대해 판단할 수 있는 것은 이미 그동안 훈련을 받아온 결과물이라는 것이다.
이러한 결과물은 분석이 필요하지 않을 정도로 깊이 프로그래밍되어 있다.폰 노이만 아키텍처는 컴퓨터의 핵심 구조로, CPU와 메모리의 두 가지 구조로 이루어져 있다.
CPU는 계산을 빠르게 처리하고, 메모리는 정보를 저장한다.
CPU의 속도와 메모리의 저장 용량이 중요한 이유는 이것이 계산과 정보 저장에 미치는 영향 때문이다.
따라서 계산을 할 때는, 예를 들어 3 + 5처럼 간단한 연산을 할 때에도 두 수를 메모리로 가져와야 한다.
CPU로 그 다음 +를 한다는 것은 회로로 찰칵하면 더하기가 나와요.
그럼 그 결과를 메모리에 저장해요.
이 과정이에요.
그러니까 사실은 굉장히 단순한데 컴퓨터가 예전에는 처음엔 그 튜링의 영화를 보면 이 밑에 벽 전체가 컴퓨터잖아요.
출력도 마찬가지고 입력 출력을 봤는데, 점점 큰 것들이 이제 점점 줄어들기 시작하는 데, 우리가 트랜지스터라는 작은 것으로 변화가 되고 지금까지 엄청난 직접 도를 가진 CPU가 됐어요.
그리고 이제 우리가 아키텍처로 된, 작은 컴퓨터가 나타나기 시작을 했는데 그 시장을 누가 이제 장악하는 지는 IBM이에요.
그 당시에도, 그래서 이 대형 컴퓨터가 다 IBM이 만들었죠.
그런데 그때는 소형 컴퓨터도 없었어요.
사람이 쓰는 컴퓨터가 없었고 그게 이제 소량화가 되고 집적도가 높아지면서 작게 되면서 개인이 있을 수 있도록 만들어야겠다고 생각했죠.
그래서 IBM이 퍼스널 컴퓨터라고 해가지고 우리가 PC라고 하는 거에요.
그런데 이때 이제 영웅들이 나타나기 시작하는 거예요.
이 PC를 보고 세 명의 영웅이 나타나는데 이제 한 명은 마이크로소프트예요.
이 컴퓨터를 움직이려면 우리가 소프트웨어가 있어야 되는데, 이 컴퓨터를 직접 움직이는 소프트웨어를 시스템 소프트웨어라고 하고, OS 같은 거죠.
오퍼레이팅.
그리고 우리가 어떻게 계산을 해야 될 지, 사진을 찍어주는데 이런 것을 애플리케이션 소프트웨어라고 해요.
애플리케이션 소프트웨어를 줄여서 앱이라고 말해요.
그래서 우리는 앱을 많이 보고 있죠.
근데 그 밑에는 OS가 있는 거죠.
그러니까 이제 애플 쓰는 사람은 아이폰은 iOS가 있고, 안드로이드 쓰는 사람은 안드로이드 OS죠.
그 운영체제가 굉장히 컸는데, 메모리가 비싼 시대였기 때문에 그 운영체제를 굉장히 작고 강력하게 만든 사람이 빌 게이츠예요.
그러니까 회사 이름도 "마이크로소프트"라고 지은 거예요.
아, "마이크로"는 IBM의 납품을 한 거죠.
이걸 쓰면 메모리를 많이 저장할 수 있어서 PC 시장을 다 가져가게 된 거죠.
그래서 이제 윈도우가 그전에 도스가 있었잖아요.
도스가 마이크로소프트에서 처음 내놓은 운영체제였죠.
DIR(dir/w) 하면 이렇게 막 그 메뉴들을 따서 이제 곧 도스를 쓰다가, 애플 컴퓨터의 애플2랑 LC 기종도 썼었는데, 걔네들이 막 이렇게 그림을 화려하게 그리니까 아이들이 눈 돌아가고 그랬었어요.
바로 이제 윈도우가 따라오더라고.
근데 이제 윈도우는 그때 당시에 싸게 이제 광범위하게 뿌리니까, 그거를 도와준 게 이제 인텔이에요.
그 CPU를 컴퓨팅용으로 작게 집적도를 높여서 싸게 만들기 시작하면서, 인텔 인사이드, 윈도우 이렇게 두 개가 PC 시장을 다 가져간 거죠.
그리고 이제 한쪽에는 애플 스티브 잡스랑 경쟁하다가, 애플 스티브 잡스가 쫓겨나고 어려움을 겪다가 다시 돌아오죠.
그러니까 어떻게 보면, 그 시대에 지금 마이크로소프트하고 애플이 지금 엄청난 대기업이 되어 있고, IBM, 인텔 줄어들고 그 자리를 차지한 게 엔비디아라 보면, 화면이 빨리빨리 돌아가야 하잖아요.
탁탁탁 끊기죠.
그러니까 화면을 빨리 돌리려면 화면 전용 CPU가 필요했었습니다.
그래서 클래식 카드 속에 보면, 그 화면 전용 CPU예요.
그래서 칩이 됐죠.
그리고 그거를 하다가 보니까, 인공지능 쪽이 이제 나중에 이야기할건데, 컴퓨팅이 너무 많이 필요한 거예요.
훈련을 할 때, 뇌와 비슷하다고 했으니까, 늘 구조에 있는 모든 연결 구조를 계산을 한 번에 짝 했으면 너무 좋잖아요.
근데 그 구조가 보면 이렇게 막 벡터들이 엄청 쌓여 있는 매트릭스가 되어 있는데, 이거를 한 번에 계산하려면, 화면에 픽셀처럼 되어 있는 거의 구조가 비슷하잖아요.
그래서 이 계산을 한 번에 패러렐 짝 할 수 있게 만든 게 엔비디아예요.
병렬형으로 그래픽 칩을 발전시켜서 생각도 못한 강화된 기능을 보유한 GPU가 되었습니다.
이런 능력들이 있는 것은 인공지능을 예측할 수 있었기 때문이죠.
엔비디아에 투자했다면 더 좋았을 겁니다.
이제 컴퓨팅 기술도 발전하고, 지능을 가지려면 뉴런처럼 구성되어야 하는 인간 뇌를 모방한 연결된 세포들 또한 발전시켰습니다.
우리의 대뇌에는 천억 개의 연결된 신경세포인 뉴런이 존재합니다.
이들은 서로 전기 신호를 통신하여 결국 사물을 인식하게 됩니다.
이 과정에서 터진 뉴런들은 시냅스를 통해 다른 셀에 신호를 전송하게 되고, 마이크 같은 것을 인식하게 됩니다.
어릴 때 이런 것들을 다 배워야 하는데, 이들은 뇌 안에서 일어납니다.
그래서 처음에는 헷갈릴 수 있지만, 트레이닝을 거치면 아주 쉬워집니다.
왜냐하면 이 마이크는 셀이 터지도록 이쪽에서 인풋이 된 거라고 연결 구조를 늘려요.
그 시냅시스에 굵기를 늘리는 거예요.
어떻게 늘려요?
그러니까 이거, 예를 들어 셀 하나와 셀 하나가 연관성이 높아.
그러면 여기에 있는 선에 이 전기 신호를 증폭시켜 주도록 늘려요.
계속 보여주면 늘어난다는 얘기인가요?
그래서 보여주는 대로 러닝이 돼요.
반복 학습이 필요하네.
한복학습을 하면 그게 강화가 되는 거죠.
그렇게 인식을 해요.
그러니까 러닝이라는 것은 기본적으로는 간단한 거죠.
우리가 알고 있는 셀이 아니고, 셀은 터졌다 안 터졌다만 있는 거고 터지면 전기 신호를 쫙 보내요.
우리가 이제 웨이트라고 하는데, 이것이 크면 여기에서 일을 보내도 1이 다가고, 이걸 줄여놓으면 얘를 보내도 안 가고 그러는 거야.
그러니까 결국은 뭐냐면 관계.
제가 항상 개봉해서 이야기를 하는데, 관계예요.
관계에 있는 셀 길이, 이 굵기를 늘려주고 관계가 없으면 줄여주고 그거를 수없이 하는 거예요.
그거가 굉장히 굵어진다고 해서 다른 애들이 얇아지는 건 아니죠.
그렇진 않죠.
그런데 이제 상대적으로 다 굵어지면 안 되니까, 하나가 굵어지고 굵어지면 다른 것들은 상대적으로 적어지겠죠.
왜냐면 관계가 없으니까.
이것이 관계가 있다고 생각하면, 다른 것들은 관계가 없을 수 있는 게 더 있으니까, 거기는 좀 줄어들겠죠.
약간 걱정되는 건, 예를 들어서 이성을 보고 팡 터지기도 많이 할 거 아닙니까?
이쪽만 계속 이제 애가 훈련이 강화되면 혹시 다른 쪽으로 너무 이게 가늘어지나 싶어서 아, 그래요.
그러니까 엄마 닮은 뭐 모양, 상 그런 걸 좋아한다 많이 봐왔으니까 굉장히 익숙할 거 아니에요?
사람도 이걸로 결국 인식하는 거군요.
더 크게, 그거를 우리가 러닝이라고 해요.
러닝이라는 게 결국은 중간에 웨이트가 바뀌는 것, 전기 신호를 많이 보낼 건지 적게 보낼 건지, 그 웨이트를 움직이는 과정을 러닝이라고 하는 거야.
이런 걸 그러면 컴퓨터로 구현을 하려고 한다고요.
그거를 컴퓨터에다가 시뮬레이션을 한 거죠.
아이, 컴퓨터도 돼요.
그게 이제 나중에 이야기하겠지만, 예를 들어서 겨울이나 추운 날씨면 눈 같은 단어가 나올 거예요.
그러니까 겨울이나 추운 날씨라는 개념과 관련이 매우 깊어요.
왜냐면 겨울과 추운 날씨라는 것은 서로 연관되어 있기 때문이에요.
겨울이라는 단어가 나오면, 추운 날씨와 관련된 단어들도 같이 나오죠.
눈싸움, 털 장갑, 목도리 등과 같은 단어들이 이어져 나와요.우리는 이제 많이 사람들이 모여있기 때문에 단어를 느리게 처리할 수밖에 없어요.
그래서 채취피티 작동하는 모습이 보이는 거죠.
단어 하나하나가 나오는 속도가 느리기 때문에 그렇게 작동하는 거예요.
사실 이러한 관계들을 하나하나 파악해서 인풋에 대한 아웃풋을 만들어내는 건 정말 어려운 일이에요.
그러나 최신 버전의 딥러닝 기술을 이용해서, 이러한 복잡한 인지 과정을 이해하고 학습할 수 있게 되었어요.
AI나 딥 러닝이란 용어는 예전부터 존재했지만, 지금은 점점 더 큰 의미를 가지고 있어요.
이러한 방식으로 우리가 가진 지식을 표현할 수 있기 때문이죠.
이렇게 철쭉처럼 발전하며, 딥러닝 기술은 점점 더 발전해가고 있어요.
딥러닝이란 것은 레이어가 많이 연결되어 있는 형태를 띄고 있기 때문에, 딥 러닝이라는 이름이 붙었어요.
마이크를 인식하는 과정을 예로 들면, 먼저 딱셀에서 전기 신호가 발생하고, 여러 단계를 거쳐서 우리는 마이크를 인식할 수 있게 되는 거죠.
이러한 프로세스를 거치면서, 우리는 마이크의 연결관계를 다른 개체와 연결시켜주는 거죠.
딥 러닝은 이러한 레이어를 많이 추가해서 데이터를 분석하고 이해하는 기술을 뜻해요.
그러니까, 딥 러닝이 나오기 전까지는 이 인공지능의 역사는 컴퓨터 역사와 같아요.
아까 말한 것처럼 폰노이만 아키텍처가 생겼고, 동시에 한쪽 방향으로는 사람들의 뇌를 연구했어요.
먼저 연구한 것은 단순한 셀 하나인 뉴런이었어요.
우리 뇌는 복잡해도 항상 기본을 가지고 있기 때문에, 이제 퍼셉트론 셀 하나를 가지고 연구를 시작했어요.
그리고 이제 인풋이 들어오고 아웃풋이 나가는 연구를 시작했는데, 초반에는 아주 좋았어요.
분간도 잘하는 것 같고요.
그러나 하다가 데드엔드에 막힌 거예요.
셀 하나로는 노인과 아이를 구별 못하기 때문이죠.
그래서 노약자와 성인, 청년을 구분하는 것도 어려워져요.
많은 시련과 노력 끝에 해결할 수 있었지만, 그 중 하나는 해결하지 못한 거예요.
크게 발전하게 된 것은 미국 국방부의 지원 덕분이었어요.
예전에는 알파라고 했었는데, 지금은 달파라고 디펜스를 붙여서 적을 제압하며 퍼짓을 끄는 겁니다.
이건 안 되는거라서 더 이상 하지 않는게 좋아요.
그래서 혹한기와 아마도 1975년 정도로 기억합니다.
그때 자르면 바로 추워진다는 문제 때문에, 연구자들이 정말 고생하면서 인공지능의 첫 번째 겨울이 시작되었죠.
그러면서도 소위 '아키텍처'라 불리는 그 손들은 계속해서 발전하면서 70년대 마이크 빌 게이트나 스티브 잡스와 같은 사람들이 사업을 벌이고 패키지가 출시되었습니다.
그리고 대학 시절에 이 패키지를 사용해 컴퓨터를 배우는 사람들이 매우 많았죠.
그리고 그 후에는 개인용 컴퓨터와 매킨토시가 출시되면서, 인텔도 칩을 더욱 발전시켜 계산 속도와 로직을 개선하였습니다.
그러면서 컴퓨터는 계산을 잘하고 빠른 길을 찾는 등의 일도 잘해냅니다.
그러나, 아직 고양이와 같은 사진을 컴퓨터가 인지하지 못하는 문제가 있습니다.
고양이를 보면 눈이 두개있고 귀가 있는 것을 이해해야 하지만, 실제 고양이 사진의 조건이 다른 경우라면 컴퓨터가 이를 판단하기 어렵습니다.
이 때문에, 컴퓨터가 사람처럼 문제를 생각하기 위해서는 인공지능의 발전이 필요합니다.
이제 겨울이 지나고, 다시 봄이 오기 시작해서 컴퓨팅 속도와 소프트웨어 발전이 이루어질 것입니다.
그러면서, 다시 한 번 사람과 같은 인지 방법으로 문제를 해결해 보려는 시도도 진행될 겁니다.
그러니까 어린이가 인지하는 방법이죠.
결국은 그렇게 해보자 이거예요.
어떻게?
그래서, 어떻게 했냐면, 아까는 한 칸으로는 안 됐잖아요.
그래서 이제는 여러 칸으로 레이어를 늘린 거예요.
사람 뇌처럼요.
이제 저는 그 고양이 사진을 딱 주고 이쪽에 고양이, 개, 낙타 등 다른 사진을 놓고 고양이 사진을 선택할 수 있도록 훈련시켰어요.
고양이는 크기가 60cm이고 발이 있고 꼬리가 달린 검정색이나 갈색 등의 개념을 가지고 있어요.
이건 고양이다라고 한 게 아니고, 고양이 사진을 어떻게 나온 건데도 백만 장 주고 훈련시켰어요.
그리고 이제 1024, 1023, 100만 개의 픽셀을 일일이 RGB로 색상을 지정해서 매칭시켜줬어요.
그리고 이걸 연결해서 자연스럽게 나오도록 했어요.
그러니까 애들이 자연스럽게 이해하게 되는 거죠.
애들이 이해하는 걸 모델이 러닝하게 된다는 거죠.
그래서 화면에서 이건 좀 내려야겠다 이건 좀 올려줘야겠다 하는 등의 관계를 맺어주는 백 프라퍼게이션이 뒤에서부터 짝짝짝 웨이트를 고쳐서하는 거죠.
컴퓨터는 어느 정도 이해할 수 있지만 고양이인데도 다른 사진으로 인식하는 경우도 있으니 주의해야 해요.
이 거는 판단할 거 아니에요.
막 보다가, 얘는 아무리 봐도 고양이도 아니고 표범도 아니지만, 문의는 못 보던 친구에요.
그러면, 내가 온라인상에 있는 수많은 다른 사진과 대조해서, 얘가 뭔지를 알아내겠어요.
그래서 찾아보니, 얘는 치타라고 판단하는 수준까지는 아직 안 됐어요.
그건 치타를 훈련해 놔야만 하죠.
아, 그래요.
내가 이건 잘 모르겠으니까 배워야겠어요.
그건 못해요.
사람의 영역이 이제 있는 거죠.
내가 왜라고 해서 새롭게 그러니까, 그거 방금 말씀하신 게 이제 "크리에이티브티"라는 거거든요.
그 "크리에이티브티"는 없어요.
이제 나중에, 이 메카니즘을 다 알게 되면, "크리에이티브티"가 없다는 걸 현재 인공지능으로 알 수 있어요.
그리고 쉽게 알 수 있는 건, ChatGPT에다가 "너는 '크리에이티브티'가 있니?" 물어보면 돼요.
그럼 얘가, "저는 '크리에이티브티'가 없습니다"라고 말해요.
지금 없는 걸 아는데 자의식은 없는데, 본인이 모자라는구나, 본인에 대한 판단 평가는 지금 현재 어느 정도 수준인지요?
이런 저런 얘기들은 하지 말라고 들었는데, 우리 선생님께서 알려주신다면, 어느 정도로 비유해 주실 수 있습니까?
지금 현재 GPT는 능력 또는 한계라는 거죠.
그러니까, 이런 것들은 사실은, 이제 그러한 내부 구조로서 우리가 파악할 수 있어요.
인공지능 프로그램과 기존 프로그램의 차이점을 우선 알아야 돼요.
인공지능 프로그램과 기존 프로그램이 아닌, 기존 프로그램들, 그러니까 딥러닝 프로그램과 기존 프로그램과의 차이를 알아야 돼요.
일반적인 프로그램은 우리 IT 종사하는 많은 사람들이 쓰는 일반적인 프로그램은 인풋이 있고, 아웃풋이 있는데, 들어온 인풋에 따라서 정확히 다음 스텝이 정해져요.
컴퓨터는 그래서 모든 문제는 기본적으로 큰 틀에서 보면, 어떠한 상황 변경의 스테이터스 변경이에요.
스테이트가 움직이는 거예요.
그 끝 스테이트가 아웃풋하고 맞아 떨어지면, 답으로 나가는 거예요.
그래서, 이것도 놀랍게도, 튜링 선생님께서 '튜링 머신'이라고 가상 프로그램.
모든 문제는 이렇게 될 거라고 하셨어요.
다시 말해서, 인풋이 들어오면 정확히 거기에 따라서 움직이다가 아웃 소리를 낼 거야.
그거거든요, 그것도 다 예상을 하셨어요.
그러니까 우리가 쓰는 아주 복잡한 프로그램이라고 하더라도 결국은 이 튜링 머신, 그 이제 머신이라고 해서 실제 그 기계적 머신이 아니라 가상적 프로그램이에요.
모든 것은 스테이트가 움직이면서 어느 순간 딱 아웃풋 되는 스테이트가 있으면 끝난다.
네, 이렇게 되는데, 인공지능 프로그램은 그러니까 일반 프로그램을 짜는 사람은 인풋이 들어오면 어디로 갈지 다 알아요.
그럼 자기가 짰으니까 내가 쳐서 아빠 이름을 알고 싶어요.
그러면 이 인풋을 받아서 그 가족에 관한 데이터베이스를 가서 사람 이름을 찾아서 내 이름을 자꾸 그 옆에 아빠 이름을 찾아서 꺼내서 주는 거잖아요.
이 모든 과정이 우리가 이제 디터미니스틱이라고 하는데, 정해져 있어요.
그런데 인공지능 프로그램은 그렇게 안 해요.
어떻게 하냐면 인풋을 받긴 받아요.
아웃풋을 죽인 좋아요.
이 안에 박스가 약간 블랙박스에요.
그 얘기는 같은 질문에도 다른 답이 나올 수 있다는 말씀이세요.
그렇죠.
같은 질문을 해도 다른 답이 나올 수 있어요.
아, 그래요.
그게 사람이니까.
사람은 그렇죠.
그러면 인공지능 프로그램은 두 파트로 나눌 수가 있어요.
인풋을 받아서 아웃풋을 주는 그러니까 인풋을 받아서 자기 안에 블랙박스를 거친 다음에 아웃풋을 내주는 그러한 프로그램이 하나가 있고 그러니까 이제 사용자들이 쓰는 프로그램이죠.
그렇게 볼 수가 있고.
그러면 이 블랙박스를 어떻게 만들 것인가.
이 프로그램이 이제 진짜 인공지능 프로그램이죠.
이 블랙박스를 어떻게 만들 것인지는 아까처럼 트레이닝, 블랙박스가 진짜 핵심이겠네요.
아주 뜬금없는 대답이 갑자기 나오는 것도 안 되고, 블랙박스는 진짜 재밌는데.
그러니까 이 블랙박스에 의미가 뭐냐.
이 블랙박스가 좋다 안 좋다가 기본적으로는 인공지능이 잘 된다 안 된다.
그래서 이 블랙박스를 모델이라고 해요.
그래서 인공지능을 쳐 보면 "나는 뭐, 무슨 모델입니다" 라는 말 자꾸 나온 거예요.
자신은 프로그램인데 자꾸 모델이라고 말하는 이유는, 이전에 언급한 블랙박스 속에서 작동하기 때문입니다.
자기도 무엇이 나갈지 모릅니다.
그러므로 블랙박스를 트레이닝하는 이 프로그램을 만드는 것입니다.
이제 가끔 음원 사이트 등에서 우울할 때 듣는 노래나 운전할 때 듣는 노래를 듣게 됩니다.
그래서 그것을 조금씩 조절하여 노래를 변경하려는 생각도 있었지만, 그날의 수많은 변수를 조합하여 나한테 맞는 영상을 추천하는 인공지능일 수도 있다는 막연한 생각이 듭니다.유튜브에서 내가 좋아할 만한 영상이 추천되는 것은 인공지능 알고리즘으로 구동됩니다.
이것은 구글 같은 회사가 블랙박스를 잘 트레이닝한 결과물입니다.
뉴런과 시냅시스를 언급한 것처럼, 인풋이 들어오면 될 때마다 시냅시스의 가중치에 따라 신경망 네트워크가 형성됩니다.
이것이 전체적인 결과물을 결정합니다.
이러한 네트워크 아키텍처를 뉴럴 네트워크라고 합니다.인간도 좋아하는 것을 계속하면 강화되고, 그것을 자주 하게 되면 습관이 형성됩니다.
이것은 시냅시스 링크의 굵기로 형성됩니다.
습관은 우리의 행동과 생각을 반복하는 것입니다.
더 강화되고, 그래서 어릴 때 습관이 중요하다는 거예요.
어릴 때 어떻게 했느냐에 따라 습관이 형성되기 때문이죠.
혹시 깨봉 봐라 이런 결론을 내주시려는 건 아니신 거죠?
결론은 뭐라고 생각하시나요?
[웃음] 아, 그거는 필수에요.
그러니까 우리가 배우는 거죠.
제가 이제 아까 말씀 드렸듯이, 제가 인공지능 개발을 하느냐, 인공지능을 하느냐 이거 말예요.
사실은 똑같은 의미라고 생각해요.
하지만 저는 이제 인공지능 프로그램을 개발해서 돌리고 있어요.
그런데, 실제로 어떻게 하면 되는 건지를 이해하기 위해서는 먼저 디터미니스틱으로 나가는 것들부터 이해해야 해요.
이러한 것들을 튜링 머신형 프로그램이라고 해요.
이것은 로직에 관한 것이에요.
로직은 한 치의 오차도 없기 때문에 수학처럼 보이죠.
그러나, 인간이 하는 일은 로직뿐만이 아니라 직관도 필요해요.
직관은 단순한 해석이 아니라 상황에 따라 다르게 나올 수 있어요.
물론 수학도 직관과 논리를 똑같이 필요로 해요.
이 둘이 있는 게 수학이에요.
그러니까, 어떠한 문제를 풀 때 직관이 중요한 건 사실이지만, 항상 로직적으로 푸는 게 필요해요.
이 두 가지가 왔다갔다 하는 것이, 인공지능이 본질적으로 하는 일이고, 이것이 바로 얼티메이트한 인텔리전스예요.
인공지능은 천연지능을 넘어섰기 때문입니다.
지금은 그 블랙박스라고 부르는 것들이 많아졌습니다.
만약 두 개, 세 개, 다섯 개, 십 개의 인공지능이 만들어진다면, 서로 다른 결과를 만들어 낼 수도 있습니다.
그렇듯이, 개성을 가진 인공지능도 출현할 수 있습니다.
이것은 좋은 질문입니다.
다만, 지금은 첫 GPT 하나만 알고 있을 뿐, 다른 인공지능들도 많이 개발되고 있습니다.
달리 이렇게 해서 그림을 그려주는 거, 동영상을 만들어주는 거 등에서 굉장히 많이 되어 있어요.
그러면 이 인공지능의 블랙박스가 블랙박스인 거죠.
이것의 실체죠.
그거를 가져오는 것은 쉬워요.
왜냐하면 여기 채취 비트 해봐야 1,755개 숫자잖아요.
그러면 우리 저기 손에 다 들어가요.
근데 이제 어려웠던 건 뭐냐면, 아까 그 40조 글자를 트레이닝을 시키는 거 있잖아요.
그러니까 이게 시간이 많이 걸려요.
그런데 아까 말씀하신 나만의 AI, 그러니까 나를 대변하는 애를 만들 수 있느냐 없느냐, 이 것이 다음에 우리가 예측할 수 있는 거예요.
나만의 AI, 나의 아바타, 왜냐하면 우리가 이렇게 말을 잘 만들어내고, 내 아는 지식을 프리젠테이션을 잘하고 요령 있게 잘 만들고 이런 것들은 채취 비트가 다 해주잖아요.
그러면 여기에 없는 것들, 그건 뭐냐면, 얘가 가지고 있는 지식을 만들어 줬지.
나의 지식은 없어요.
다시 말해서, 조봉하는 어느 학교를 나왔고, 왜 수학을 가르칠 수 있는 능력이 저렇게 뛰어날까?
그러면 모르죠.
왜 이렇게 뛰어날까, 얘는 모르죠.
객관적인 사실 정도만 알고 있죠.
그런 나에 대해서 아예 몰라요.
그러면 애한테 훈련을 시켜 줘야 되는 거거든요.
근데 그게 너무 쉽게 가능해요.
뭐냐면, 이 GPT를 다운 받아요.
받은 다음에 그러면이 다운 받은 거에는 이미 말에 관한 건 다 할 줄 알아요.
그리고 남의 건 다 알고 있고, 여기에 이제 제 것을 트레이닝을 시키면 되는 거예요.
체크를 트레이닝을 시키면 제 거와 함께 이제 나타나기 시작하는 거죠.
그러면 훈련시킨 사람에 따라서, 그러니까, 그래서 이 GPT에 피 CPT에 피자가 프리 트레인드예요.
왜 프리 트레인이냐면, 트레이닝을 시켰는데 그걸 가지고 더 트레이닝을 시킬 수 있다.
지금 것만 가진 것은 프리 트레인드다.
모든 모델이나 이런 그 인공지능의 관련된 것들은 프리 트레인드 된 것을 가져오는 거예요.
그것만 갖고 써도 충분하고, 여기에 내 걸 더 집어넣는 과정을 파인 튜닝이라고 해요.
그러니까, 프리트레인드 된 것은 fine 튜닝이 가능하다.
이거죠.
그래서 파인 튜닝을 하면 나만의 인공지능이 생기는 거죠.
진짜 애기 키우는 것과 비슷한 것 같은데, 아직 궁금한 것이 많이 막 생겨나고 있습니다.
오늘은 그러면서 우리 선생님과 함께 인공지능에 대해 이야기했는데, 인공지능 지금 나온 얘기도 사실 다 머리에 집어넣으려면 한참 걸립니다.
하지만 깨봉 선생님이기 때문에 정리가 잘 될 거예요.
여러분도 혹시 이해가 안 된다면 외우시면 됩니다.
다음 시간에 기대하면 조봉환 선생님을 만날 수 있을 겁니다.
기다리는 시간이 길지 않을 겁니다.
자, 오늘 인공지능에 대한 재미있는 이야기를 매우 재밌게 푸는 우리 깨봉 수학의 지난 교수님께 대단히 감사합니다.

 

 

SMALL




[ English Summary ]

ChatGPT's capabilities are likely to be less than 1%.
Artificial intelligence is software inside a computer that mimics the brain.
Recently, technologies like ChatGPT have become popular, causing GPT stock to skyrocket, but it's important to consider the possibility of a Dot-com Bubble.
Now that we have AI experts, we'll cover the concepts of AI and NATURAL INTELLIGENCE, how to determine if an AI company has a core technology, and more.
ChatGPT's capabilities are likely less than 1%.
AI is the software inside a computer that mimics the brain.
Recently, technologies like ChatGPT have become popular, sending GPT stock soaring, but it's important to consider the possibility of a Dot-com Bubble.
Now we have artificial intelligence experts, and today we'll cover the concepts of AI and natural intelligence, and how to determine whether an AI company has a core technology.
The intelligence assessment test developed by Allanturing in 1950 has become one of the most enduring methods in computer science.
The test is a way to determine if a computer is intelligent by having a conversation with a person and not being able to tell who is speaking.
At a time when computer development was slow, Turing predicted that computational power would eventually lead to human intelligence.
Currently, artificial intelligence is being researched in various fields, and if the past is any indication, computer technology was developed through warfare, and it is divided into two directions.
One is to mimic human thinking, and the other is to perform fast calculations in less time.
Now, we are seeing a merging of the two.
ChatGPT's capabilities are still less than 1%.
Artificial intelligence is software inside a computer that mimics the brain.
While technologies like ChatGPT have become popular in recent years, sending GPT stock soaring, it's important to consider the possibility of a Dot-com Bubble.
Now we have artificial intelligence experts, and today we'll cover the concepts of AI and natural intelligence, and how to determine if an AI company has a core technology.
The intelligence assessment test developed by Allanturing in 1950 has become one of the most enduring methods in computer science.
The test is a way to determine if a computer is intelligent by having a conversation with a person and not being able to tell who is speaking.
At a time when computer development was slow, Turing predicted that computational power would eventually lead to human intelligence.
Currently, artificial intelligence is being researched in various fields, and if the past is any indication, computer technology was developed through warfare, and it is divided into two directions.
One is to mimic human thinking, and the other is to perform fast calculations in less time.
Nowadays, the two are merging.
This article is about the structure and development of computers.
A computer consists of a CPU and memory, which affect computation and information storage.
In addition, artificial intelligence requires large computers for autonomous driving and is being advanced through computational design and training.
In particular, Nvidia is playing a big role in AI by advancing graphics chips with similar structures.
Connected cells that mimic the human brain are also advancing, and they recognize things through synapses.
These advancements become easier with training, and competition from companies like Microsoft and Apple is playing a big role in their development.
ChatGPT's capabilities are likely less than 1% of the way there.
Artificial intelligence is software inside a computer that mimics the brain.
While technologies like ChatGPT have become popular in recent years, causing GPT stock to soar, it's important to consider the possibility of a Dot-com Bubble.
Now we have artificial intelligence experts, and today we'll cover the concepts of AI and natural intelligence, and how to determine whether an AI company has a core technology.
The intelligence assessment test developed by Allanturing in 1950 has become one of the most enduring methods in computer science.
The test is a way to determine if a computer is intelligent by having a conversation with a person and not being able to tell who is speaking.
At a time when computer development was slow, Turing predicted that computational power would eventually lead to human intelligence.
Currently, artificial intelligence is being researched in various fields, and if the past is any indication, computer technology was developed through warfare, and it is divided into two directions.
One is to mimic human thinking, and the other is to perform fast calculations in less time.
Nowadays, the two are merging.
This article is about the structure and development of computers.
A computer consists of a CPU and memory, which affect computation and information storage.
In addition, artificial intelligence requires large computers for autonomous driving and is being advanced through computational design and training.
In particular, Nvidia is playing a big role in AI by advancing graphics chips with similar structures.
Connected cells that mimic the human brain are also advancing, and they recognize things through synapses.
These advancements become easier with training, and competition from companies like Microsoft and Apple is playing a big role in their development.
In this article, we discussed deep learning technology and how it has evolved.
Deep learning gets its name because it has many connected layers.
The evolution of artificial intelligence began with the advent of the von Neumann architecture, and the latest versions of deep learning technology have made it possible to understand and learn complex cognitive processes.
Deep learning can be used to solve the problem of slow processing of words due to the clustering of people.
Deep learning can also be used to train AI to recognize pictures, such as cats.
Deep learning is characterized by layers upon layers of compartments, just like the human brain.
Readers of this article should keep an eye out for further developments in deep learning technology.
It seems that ChatGPT's capabilities are still less than 1%.
Artificial intelligence is software inside a computer that mimics the brain.
While technologies like ChatGPT have become popular in recent years, causing GPT stock to skyrocket, it's important to consider the possibility of a Dot-com Bubble.
Now we have artificial intelligence experts, and today we'll cover the concepts of AI and natural intelligence, and how to determine if an AI company has a core technology.
The intelligence assessment test developed by Allanturing in 1950 has become one of the most enduring methods in computer science.
The test is a way to determine if a computer is intelligent by having a conversation with a person and not being able to tell who is speaking.
At a time when computer development was slow, Turing predicted that computational power would eventually lead to human intelligence.
Currently, artificial intelligence is being researched in various fields, and if the past is any indication, computer technology was developed through warfare, and it is divided into two directions.
One is to mimic human thinking, and the other is to perform fast calculations in less time.
Nowadays, the two are merging.
This article is about the structure and development of computers.
A computer consists of a CPU and memory, which affect computation and information storage.
In addition, artificial intelligence requires large computers for autonomous driving and is being advanced through computational design and training.
In particular, Nvidia is playing a big role in AI by advancing graphics chips with similar structures.
Connected cells that mimic the human brain are also advancing, and they recognize things through synapses.
These advancements become easier with training, and competition from companies like Microsoft and Apple is playing a big role in their development.
In this article, we discussed deep learning technology and how it has evolved.
Deep learning gets its name because it has many connected layers.
The evolution of artificial intelligence began with the advent of the von Neumann architecture, and the latest versions of deep learning technology have made it possible to understand and learn complex cognitive processes.
Deep learning can be used to solve the problem of slow processing of words due to the clustering of people.
Deep learning can also be used to train AI to recognize pictures, such as cats.
Deep learning is characterized by layers upon layers of compartments, just like the human brain.
Readers of this article should keep an eye out for further developments in deep learning technology.
This article is about artificial intelligence.
It explains the process of how a computer separates photos, the difference between artificial intelligence and traditional programs, Turing machines, and more.
AI programs train a black box to create a model and execute it through neurons and synapses.
AI is also used to determine what videos are recommended on YouTube and elsewhere.
Finally, the article concludes by emphasizing that we need to think about how to train AI in an environment with many unpredictable variables. 

 

 

 

[ English Full Text ]

How good is ChatGPT?
The power of ChatGPT is how good the black box is.
It's that in-between black box that you put in and get something out of.
When you think about how capable a black box is, you have to consider that there are about 100 trillion synapses in the human brain.
If you look at ChatGPT, it's like 175 billion synapses, so it's very small.
So it's still less than 1%.
What is artificial intelligence now?
Mom, computers, dad, what we're doing now is we're taking the hardware that's running and we're taking those computers that only you guys are good at architecture and we're making the programs inside of them run instead.
That software is going to be modeled after this brain.
It's time to talk to the gods of economics and share their deep insights.
Today we're bringing back our 3% TV God, who's on College Hour, and he's going to get a lot of views, but he's especially going to get a lot of comments.
Speaking of which, we're going to have Dr. Bong Han Cho of Open Math, who's been getting a lot of praise in the comments.
Welcome.
Hello, Dr. Cho.
Good to see you.
The fact that you're remodeling me with a mathematical liver.
Well, you're guiding me now, but if there was one in the proposal, you brought it out.
That's how I'm looking at it.
Oh, you're right.
But a lot of you are putting it in the facts.
Facts, yes.
But they're almost all dead now.
You went to school and you killed everything in there.
But today, unexpectedly, I was surprised that he was talking about math, math, but artificial intelligence, chat GPT.
So, I'm wondering if you're just trying to jump on the bandwagon a little bit with your accusations because GPT has been so hot lately?
Because if that's the case, I fold right here.
We don't do that.
We're always majoring in something.
Oh, well, I'll go ahead and talk about harvesting beauty because it's hot right now.
This is definitely not it, right?
I don't think that's what you're thinking.
We talked about ChatGPT briefly in December.
At the time, most people didn't know about it, didn't know what it was, and then in January, the stock price went up dramatically.
Even in the news this morning, there were a lot of stories about ChatGPT, but now most of the attention is focused on AI.
It's kind of crazy, but even so, it reminds me of the "dot-com bubble".
Back then, dot-com companies were really starting to take off on the internet.
Companies like Amazon were already pioneering data processing and analysis through user analytics.
However, the companies that were emerging during this time were simply labeled "dot com" or "digital" and started their activities.
While some of them had the potential to grow quite a bit, most of them collapsed.
There were many similar companies in Korea.
But now we have AI experts like Dr. Bonghwan Cho and Bongseok Kae.
Dr. Bong-Hwan Cho graduated from Seoul National University's Department of Computer Science and received his PhD in AI from USC.
He will soon play a leading role in other fields such as math education.
With this in mind, what started as a side project has grown into something much bigger.
I'm guessing you're a little bit worried about the first GPT craze now, since you're originally from an artificial intelligence, or computer, perspective.
Yeah, so you've actually got a little bit of a subscriber base now, 3% readers.
They do a lot of research on the outlook for this stock and things like that.
So that's the biggest benefit that the 3% now provides.
So I was like, ah, I really need to give you some criteria here.
Ah, artificial intelligence, processivity.
This just dried up, so a lot of related stocks are going up, and I'm not going to just follow it, but if it says artificial intelligence, it's going to go up, and now that artificial intelligence is hot, if you follow it, you're going to get sucked in like a lemming.
So what impact does AI actually have and what companies should we be investing in as a company, do they have the actual core technology or not.
Isn't that what matters?
Is that something that we can judge?
So that's why we need this time today.
Oh, it's a very important time.
There are so many companies that say they're doing AI, but are they the real deal or are they a shell.
Right.
To tell the difference, it's really hard for the average person to tell, even with the packaging.
Is this coming out of the packaging, is there a real essence, a core technology inside.
Is that core technology stolen from someone else, that's what matters.
Is that what we're going to find out in this hour?
In this hour, in this series.
Oh, it's going to be a series?
I hope we can do it, and I hope it's long.
Okay, great.
Okay, so let's start off with a little bit of a conceptualization of what we're talking about, which is AI, or artificial intelligence.
Ah, that's a good way to do it.
That's how we approach AI now.
I don't know, I don't know exactly, it's just that nowadays AI is all over the place, so it's like, "Oh, it's going to do something for me, it's going to make something for me, it's going to take a picture for me, it's going to recognize something for me, it's going to do something for me," but what is it really?
So, what we call AI, which is artificial intelligence, is now called natural intelligence.
It's our intelligence, but now it's natural intelligence that artificial intelligence is aiming for.
In other words, you want to get human intelligence.
So the question is, what are the criteria for intelligence, what tests can you pass to say you have intelligence, and who created those tests?
Have you ever seen the movie "The Imitation Game" from 50 years ago?
There's a famous British actor, Cumberbatch, in that movie.
When I saw the title, I thought it was a spoof, but it was actually the story of Alan Turing, who broke the German code during World War II and created an early form of computing.
This was the beginning of the discipline of computing.
Now, Alan Turing, the creator of this test, created a standard for how to determine the presence or absence of intelligence.
Surprisingly, the test method has been one of the most talked about computer science methods for a very long time.
Here's how it works.
If you're in a room with a human and an intelligent computer, and you're having a conversation and you can't tell if it's coming from the computer or the human, you're going to rate the computer as intelligent.
That's a pretty amazing metric for intelligence.
It's one of those things that's been talked about in computer science for a long time.
I think Alan Turing was a genius.
I don't think there was really a need for such a test at the time, I mean, at the time, he had built a computer that could just do some calculations quickly, and Turing's prediction was that these faster calculations would eventually lead to human intelligence.
So does that test still exist and is it still used?
It's being used.
I mean, he published it in a paper in 1950, so it's about 70 years later that it's been successful.
That Turing test, because teachers don't know it.
In a way, it's our decade in a really short time.
Turing made that prediction, but he made that prediction when there was no visible, tangible intelligence, natural intelligence or anything like that.
I think that's really great, but I think there's something about AI that's a little bit of an underused word.
So, there was an AI washing machine that was like a washer and dryer or something.
It was an AI that you put your laundry in, and it would spin it around a couple times, and it would say, "Oh, this is how many inches, this is how much water I need to put in," and it would spin it for a couple hours, and it would dehydrate it in a couple minutes, and it would say, "Oh, it's only going to take about 92 minutes to wash it.
Remember that?
There was also an AI fan.
Actually, there are a lot of people who think that A.I. is A.I. now that I don't have to press the button.
But it's not like that anymore, and when a human being asks another human being a question, and this human being and the AI answer, you can't tell the difference.
That's now artificial intelligence.
But now you can define artificial intelligence from a lot of different perspectives.
The washing machine you just mentioned is AI.
It's called artificial intelligence because it did something that wasn't done well in its time, and it's a relative concept, so there's always been an evolution of artificial intelligence within that computer science.
In the past, it used to be called artificial intelligence to win chess, and before that, it used to be called artificial intelligence to go and make a concave line, or something like that.
Oh, right.
Because I couldn't even do that back then, so it was a real shock when I first read that withdrawal emperor.
So, yeah, when IBM came out with AlphaGo, they talked a lot about Go, "You won't be able to beat it in 500 years," and it's already been beaten.
How do you get good at Go?
When I was studying in the 80s, the best I could do was about 5 dan.
So, what's happened now is that we've moved on, and now it's impossible to play.
[Laughs] Turing was a genius for setting these standards, and the symbol of that computer circus is what we now call the Turing Award.
Math is a rich field, but computers are like the Turing Award.
This is my understanding of the award and the project that he received.
There are still a lot of companies and scientists working on AI, or trying to provide services, so it's good to get a sense of where it's headed.
To understand the world, you have to look at the changes that have taken place.
Because to make a prediction, you always need to look at change.
So let's look at the change.
The change so far is fun, and it gives you a perspective on computing in general.
An arrow in the sky, if you just take a picture of it, you don't know where it's going, but if you see where it came from, you know where it's going to go.
So if you look at the trajectory of the past, we now have this Turing in 1940, and the big technologies always come out of wars.
After all, people have to go through some kind of war and get their bodies and their heads bashed in and still come out alive, so when you do something with a lot of focus, the important thing is that one of them pops out.
So that war, that World War II, you know, like Turing earlier, over here in the States, you know, the Manhattan Project or something, right?
But the whole point of it was, you know, calculating the speed of this gun flying and stuff like that.
But to do that calculation, you need to be fast, so now computers are starting to evolve, and there are two paths to this.
One is, let's make the computation faster, like Turing or something like that.
The things that humans are not good at and can't do are slow, and it's important to do these things very fast.
So there's one way to go, and then there's a way to go, and that's really fast computational technology that exceeds human capabilities.
That computational skill is the first thing.
There were two directions, one was that this relationship was limited, and the other was that since we are studying human intelligence, we should resemble the human brain, so we should go expensive on the structure of the human brain.
We went in two directions, one, let's make the computer think like a human being, and two, let's make it so good at computing so fast that humans can't keep up.
And now it's split like this between the two.
It's practically split, and then one path goes into winter, and then the other path just keeps advancing, and so on.
So you have to be selective.
But in a way, shouldn't those two paths also have names for really fast computational techniques, so that you can think like a human?
Exactly.
So now that we've gotten really good at it, it's a combination of those two things.
It is, actually.
I think it should be.
The structure is a structure for fast computation anyway, like it's a human running around.
It's simulating those things.
It's a machine, and that's what artificial intelligence looks like now.
I feel that now sometimes when I'm driving, I feel that.
What I feel is that now when I'm driving, of course, I'm not really thinking about it, I'm just going.
Even when I'm just going and I'm thinking about where I'm going to turn right, there's a lot of stuff going on in my brain, and I think it's still computing.
It's not judging what information is coming in, it's processing it automatically.
I sometimes think that you need a big computer to do autonomous driving.
Sometimes our feet are right and sometimes they're wrong.
The reason we can move is because we don't judge, we just see and decide.
In other words, the judgments we make about trees, cars, roads, etc. without calculating them are the result of our training.
The von Neumann architecture is the core structure of a computer and consists of two structures: the CPU and memory.
The CPU performs computations quickly, while the memory stores information.
The speed of the CPU and the storage capacity of the memory are important because of how they affect computation and information storage.
So when you do a calculation, even a simple one like 3 + 5, you need to get the two numbers into memory.
The CPU then does the +, which means it snaps the circuitry together to get the addition.
And then it stores the result in memory.
That's the process.
So it's actually very simple, but computers used to be, in the beginning, if you look at that Turing movie, the whole wall down here is a computer.
You see the outputs, you see the inputs, you see the outputs, and then the bigger things start to get smaller and smaller until we get to these little things called transistors, and then we get to the CPU, which is now a huge, huge amount of directness.
And now we're starting to see these little computers that are architectured, and who now dominates that market is IBM.
Even back then, so all these big computers were made by IBM.
But then there were no small computers.
There weren't any computers for people, and as they started to get smaller and smaller and smaller and smaller and smaller and smaller and smaller and smaller and smaller and smaller and smaller and smaller and smaller and smaller and smaller and smaller and smaller and smaller and smaller and smaller and smaller and smaller and smaller and smaller and smaller.
So that's why IBM called it the personal computer and we call it the PC.
And this is where the heroes start to show up.
You look at this PC and you see three heroes, and now one of them is Microsoft.
We have to have software to run this computer, and the software that runs this computer directly is called system software, and it's like an OS.
Operations.
And then there's the software that tells us how to do the math, that takes pictures, and that's called application software.
Application software is called an app for short.
So we're looking at a lot of apps.
But underneath that is the OS.
So now if you're an Apple user, the iPhone has iOS, and if you're an Android user, it's Android OS.
And that OS used to be really big, and Bill Gates was the guy who made it really small and powerful because memory was expensive.
That's why he named the company "Microsoft".
Oh, and the "micro" was from IBM.
And it could hold a lot of memory, so it took over the PC market.
So now, before Windows, there was DOS.
DOS was the first operating system from Microsoft.
DIR (dir/w), it's just like, "DOS," and then I was using DOS, and then I was using Apple Computer's Apple 2 and LC, and they were just drawing these colorful pictures, and the kids were like, "Oh, my God, this is so cool.
And then Windows came along.
But now that Windows is so cheap and so ubiquitous, it's Intel that's helping us with that.
They started making those CPUs smaller and more dense and cheaper for computing, and it's like two companies, Intel and Windows, took over the PC market.
And now you've got Apple on one side, competing with Steve Jobs, and then Steve Jobs gets kicked out of Apple, struggles, and then comes back.
So in a way, if you look at that era and you see Microsoft and Apple are now huge companies, and you see IBM and Intel shrinking, and you see Nvidia taking their place, you know, the screen has to go fast.
It's choppy.
So you need a dedicated CPU for the screen to run fast.
So if you look in the classic card, that's the screen-specific CPU.
So it became a chip.
And as I was doing that, I realized that the artificial intelligence side of it, which we'll talk about later, requires so much computing.
And when you're training it, it's like a brain, so you always want to be able to pair all the connections in the structure with a computation at once.
But when you look at the structure, it's just a matrix of vectors stacked on top of each other, and if you want to compute all of that at once, it's almost like a pixel on a screen.
So NVIDIA is the one that made it possible to parallelize this calculation at once.
By evolving the graphics chip in parallel, it became a GPU with unimaginable capabilities.
They have these capabilities because they were able to anticipate AI.
It would have been better if we had invested in Nvidia.
Now we've advanced computing technology, and we've also advanced connected cells that mimic the human brain, which must be organized like neurons to have intelligence.
In our brains, there are 100 billion connected nerve cells, called neurons.
They communicate electrical signals to each other and eventually perceive things.
When they fire, they send signals to other cells through synapses, and we recognize things like microphones.
You have to learn all of this stuff when you're young, and it happens inside your brain.
So it can be confusing at first, but with training, it becomes very easy.
Because you're stretching the connections to say, "Hey, this microphone is an input from this side so that the cell can fire.
You're adding thickness to that synapse.
How do I increase it?
So this one, for example, cell one, cell one is highly connected.
And then I'm going to stretch this line here to amplify this electrical signal.
So if I keep showing it, it stretches?
So it's learning as I show it.
So it's learning.
If you do that, that's reinforcement.
That's how I perceive it.
So learning is basically a simple thing.
It's not a cell as we know it, it's just a cell that fires and doesn't fire, and when it fires, it sends out a bunch of electrical signals.
Now we call it a weight, and if this is big, I can send a job here and it'll go to 1, and if I reduce this, I can't send a job here and it won't go.
So it's all about relationships.
I always open it up and talk about it, it's a relationship.
If you have a relationship, you increase the cell length, this weight, and if you don't have a relationship, you decrease it, and you do that a bunch of times.
Just because it's really thick doesn't mean that the others are thinner.
It doesn't.
But now I don't want them all to be relatively thick, so if one gets thicker and thicker, the others will be relatively smaller.
Because they're not related.
If I think this one is related, then the others are going to be less because there are more things that may not be related.
I'm a little bit worried that, for example, there's going to be a lot of popping at the opposite sex, right?
I'm wondering if, as she gets more disciplined, if she's going to get too much of this on the other side, ah, yeah.
So it's very familiar because they've seen a lot of shapes that look like their mom, they like statues and things like that, right?
So that's what they eventually recognize.
Bigger, that's what we call running.
Running is really just the process of changing the weight in the middle, whether it's sending more electrical signals or less electrical signals, and moving that weight around.
Once you do that, you try to implement it on a computer.
I'm simulating that on a computer.
Oh, it's a computer.
Now, that's something that we'll talk about later, but for example, if it's winter or cold weather, we'll have a word like snow.
So it's very much related to the idea of winter and cold weather.
Because winter and cold weather are interrelated.
When you see the word winter, you see all these words that are associated with cold weather.
Words like snowball fights, furry mittens, scarves, and so on.We're now in a large group of people, so we have to process words slower.
That's why you can see the harvesting feature in action.
It works because it's slow to process each word.
It's actually really hard to figure out all these relationships and create an output for an input.
But with the latest versions of deep learning technology, we're able to understand and learn these complex cognitive processes.
The terms AI and deep learning have been around for a long time, but they're becoming more and more relevant now.
Because this is how we can represent our knowledge.
It's like an azalea, and deep learning technology is getting better and better.
Deep learning is called deep learning because it has many layers that are connected.
If we take the process of recognizing a microphone as an example, first an electrical signal is generated in a cell, and then through several steps, we are able to recognize the microphone.
As we go through this process, we're making connections between the microphone and other objects.
Deep learning is about adding a lot of these layers to analyze and understand data.
So, before deep learning, the history of AI is like the history of computers.
Like I said, we had the Von Neumann architecture, and at the same time, in one direction, we were studying the human brain.
The first thing we studied was the neuron, which is a simple cell.
Our brains, no matter how complex they are, always have the basics, so now we started with a single cell, a perceptron.
And now we're starting to study inputs and outputs, and it's going really well at first.
It seems like it's doing a good job of separating.
But then I got stuck on the dead end.
Because one cell doesn't distinguish between an elderly person and a child.
So it becomes difficult to distinguish between the elderly, adults, and young people.
After a lot of trials and tribulations, we were able to solve it, but we couldn't solve one of them.
One of the big advances we made was with the support of the U.S. Department of Defense.
We used to call it alpha, and now we call it dalfa, and we're trying to take down the enemy and turn off the fuzz.
That's a no-no, we don't do that anymore.
So I remember it was during the Cold War and probably 1975.
That's when the first winter of artificial intelligence started, with researchers really struggling with the problem that if you cut it, it immediately gets cold.
And yet those hands, the so-called "architects," continued to advance, and in the '70s, people like Mike Bill Gate and Steve Jobs went into business and packages came out.
And there were a lot of people learning computers in college using these packages.
And then, as personal computers and the Macintosh came out, Intel continued to improve their chips, improving their computational speed and logic.
And computers got really good at calculating, finding fast directions, and other things.
However, there's still a problem: computers can't recognize pictures like cats.
When we see a cat, we need to understand that it has two eyes and ears, but it's hard for a computer to do that when the conditions of the actual cat picture are different.
Because of this, advances in artificial intelligence are needed to help computers think about problems like humans do.
Now that winter is over, we're starting to see spring again, which means computing speeds and software advances.
And then, once again, we're going to see attempts to solve problems with human-like cognitive methods.
You know, the way a child perceives.
So it's like, let's do that.
How?
So, how do we do that, well, we couldn't do it with just one square.
So now we've got multiple layers of cells.
Like a human brain.
So now I've trained it to choose the cat picture by giving it just that picture of the cat, and then putting other pictures over here, like cats, dogs, camels, whatever.
The concept of a cat is that it's 60 centimeters in size, it has paws, it has a tail, it's black or brown or whatever.
I didn't say, "This is a cat," I said, "This is a cat," and I trained it with a million pictures of cats, no matter how they came out.
And now I've got 1024, 1023, a million pixels, and I've got them all RGB-colored and matched.
And then we stitch them together so that it comes out naturally.
So it's something that they naturally understand.
The model learns what they understand.
So there's a back-propagation that's going on behind the scenes that's making the relationships, like, "Hey, this one needs to go down a little bit, this one needs to go up a little bit," and that's what we're doing.
The computer can understand that to a certain extent, but you have to be careful because sometimes it thinks it's a different picture even though it's a cat.
I'm not judging this one.
I'm just looking at it and realizing that it's not a cat, it's not a leopard, but it's a friend that I hadn't seen before.
So, I'm going to compare it to a bunch of other photos online and figure out what it is.
So I look it up, and I'm not at the point where I can say that this is a cheetah.
You have to train a cheetah for that.
Oh, okay.
I'm not good at this, so I need to learn.
I can't do that.
There's a human domain now.
I don't know why, because the new, you know, what you just said is now called "creativity".
There's no such thing as "creative."
Now, later on, when we're done with this mechanic, we can tell the current AI that there's no "creativity".
And it's easy to see, you can ask ChatGPT, "Do you have 'creativity'?"
And it'll say, "I don't have 'creativity'".
You know you don't have it, but you're not self-conscious, you're not good enough, what's your judgmental evaluation of yourself right now?
We've been told not to talk about this and that, but if you could give us an analogy, what would it be?
Right now, the GPT is a capability or a limit.
So, these are actually, these are internal structures that we can see now.
The first thing we need to know is the difference between an AI program and a traditional program.
Not AI programs and traditional programs, but traditional programs, deep learning programs and traditional programs.
A typical program, a typical program that a lot of us in IT use, has inputs and outputs, and the inputs determine exactly what the next step is.
Computers are like that, so every problem is basically, in the grand scheme of things, a state change of some sort.
The state is moving.
And if the end state matches the output, you get the answer.
So, again, this is amazing, the virtual program that Mr. Turing called the Turing Machine.
He said that all problems would be like this.
In other words, it's going to go in, it's going to move exactly where the input is, and then it's going to sound out.
That's it, that's what he expected.
So even the most complex programs that we write, at the end of the day, this Turing machine, now it's called a machine, it's not really a mechanical machine, it's a virtual program.
It's all about moving states around, and at some point there's a state that's output.
So, yeah, that's how it works, but an AI program, or a regular program, the person who writes it knows where it's going to go when the input comes in.
So you wrote it, so I'm going to type, I want to know my dad's name.
So it takes that input and it goes to the database for that family and it finds the person's name and it finds my name and it finds the dad's name next to it and it pulls it out and it gives it to me.
This whole process is what we now call deterministic, and it's fixed.
But an AI program doesn't do that.
What they do is they take inputs.
It kills the output, okay.
It's a little bit of a black box in here.
So you're saying that the same question can have different answers.
That's right.
You can ask the same question and get different answers.
Oh, yeah.
Because that's human.
That's how humans are.
So an AI program can be broken down into two parts.
There's one that takes inputs and gives outputs, so it takes inputs and goes through a black box inside of itself and then gives outputs, and then there's the program that you're using.
So you can see that.
So how do we make this black box.
This program is now a real AI program.
How do I make this black box, like I said, training, black box is the real key.
It can't just come up with a random answer, and the black box is really fun.
So what is the meaning of this black box.
This black box is good or bad, but basically, AI is good or bad.
So this black box is called a model.
So when you look at the A.I., it keeps saying, "I'm a model," which means it's a program.
It's a program, but it keeps saying it's a model because it's operating in this black box that I mentioned before.
It doesn't know what's coming out.
That's why you create this program to train the black box.
Now, sometimes you'll go to a music site or something and you'll hear a song that you listen to when you're depressed or a song that you listen to when you're driving.
So I thought about tweaking it a little bit and changing the song, but I have a vague idea that it could be an artificial intelligence that's taking a bunch of variables from that day and recommending a video that's right for me.When YouTube recommends a video that I might like, it's powered by an artificial intelligence algorithm.
This is the result of companies like Google training their black boxes well.
As we mentioned neurons and synapses, every time an input comes in, a neural network is formed based on the weights of the synapses.
This determines the overall output.
This network architecture is called a neural network.Humans, too, form habits when we do something we like and it gets reinforced when we do it often.
This is formed by the thickness of the synaptic links.
Habits are the repetition of our behaviors and thoughts.
It's reinforced, and that's why habits are important when you're young.
Because what you do when you're young is what forms your habits.
Now, you're not trying to give me a conclusion, are you?
What do you think the conclusion is?
[laughs] Oh, it's essential.
I mean, that's how we learn.
I think now, like I said, I'm not sure if I'm doing AI development or AI.
I think it's actually the same thing.
But I'm now developing and running an AI program.
But in order to understand how to actually do that, I need to first understand the things that go out as deterministic.
These are called Turing machine-type programs.
This is about logic.
Logic looks like math because it's infallible.
But it's not just logic that humans use, they also use intuition.
Intuition isn't just an interpretation, it can vary depending on the situation.
Of course, math requires intuition and logic equally.
Math is a combination of both.
So, yes, intuition is important when solving a problem, but you always need to be logical.
This back-and-forth between the two is what AI is essentially doing, and it's what we call ultimate intelligence.
Because AI has gone beyond natural intelligence.
It's now a lot of what we call that black box.
If you make two, three, five, ten AIs, they might produce different results.
Likewise, you could have an AI with a personality.
This is a great question.
But right now, we only know about the first GPT, and there are a lot of other AIs being developed.
There's a lot of other things that are being done, like drawing pictures, making videos, and so on.
So the black box of this AI is the black box.
It's the substance of it.
It's easy to get that.
It's easy to get that, because if we take a bit here, it's 1,755 numbers.
And then we have it all in our hands over there.
But now what's hard is, you know, training those 40 trillion characters.
So that's what takes a lot of time.
But whether or not you can create your own AI, your own kid that speaks for you, which is what you were talking about earlier, that's what we can predict next.
My own AI, my own avatar, because we're so good at crafting words, we're so good at presenting what I know, we're so good at being clever, we're so good at doing these things, and the mining bits do all that.
And then the stuff that's not here, what's that, I've created the knowledge that he has.
I don't have that knowledge.
In other words, where did she go to school, and why is she so good at teaching math?
Then you don't know.
Why is he so good, he doesn't know.
They only know the objective facts.
She doesn't know anything about me.
And then you have to train her.
But it's so easy to do that.
It's like, I download this GPT.
And then I download it, and then I'm like, "I already know everything about horses.
And I know everything else, and now I can train mine.
I train the check, and it starts to show up with mine.
And then, depending on who trained it, so, so, so, this GPT, this CPT, this pizza is pre-trained.
Why it's pre-trained is because I've trained it and I can train it further with it.
All you have right now is a pre-train.
All the models, all the AI stuff like that, you're importing the pre-trained stuff.
It's good enough to use, and the process of adding my own stuff to it is called fine tuning.
So, what's pre-trained is fine tuned.
It's like this.
So when you fine-tune it, you get your own AI.
It's kind of like raising a real baby, but you're just getting started with a lot of questions.
Today, we talked about A.I. with our teacher, and it takes me a while to put everything in my head.
But because he's Mr. Kabong, he'll be able to organize it.
If you don't understand, you can memorize it.
Tune in next time and you'll get to meet Mr. Bonghwan Cho.
The wait won't be long.
Okay, thank you very much to our math professor, Mr. Jin, who has been having a lot of fun solving interesting stories about artificial intelligence today.

 

 

 

반응형
LIST
Comments