반업주부의 일상 배움사

[요약] (23.03) 놓쳐선 안 될 미래뉴스 (생성 AI 뉴스 총정리!) :: with AI 본문

IT 인터넷/일반

[요약] (23.03) 놓쳐선 안 될 미래뉴스 (생성 AI 뉴스 총정리!) :: with AI

Banjubu 2023. 3. 25. 12:52
반응형


> English Summary

> English Full Text

 

[ 요약 ]

GPT-4는 정확도와 신뢰도가 높아졌으며, 이제 한국어 정확도는 77%까지 올라갔습니다.
또한, GPT-4의 캐릭터를 설정할 수 있는 스티어빌리티 기능도 추가되었습니다.
이제 왜 안전 교육이 필요한지 살펴보며, 기술 혁신이 기대됩니다.메서드 및 인수: 없음읽는 이에게 할 일: GPT-4의 발전에 관심을 가지며, 안전 교육이 필요한 이유를 이해하고 기술 혁신의 가능성을 기대합니다.
태스크래빗에서는 해킹을 위한 캡처 테스트를 위해 인간 작업자를 고용하기도 한다.
GPT API를 활용해 다양한 서비스가 개발되며, Fine Tuning(미세조정) 메뉴를 이용하면 우리 기업이 원하는 방향으로 GPT 언어 모델을 조정할 수 있고, 토큰 기반으로 계산된 요금이 책정된다.
쇼핑, 여행, 교육, 건강 정보 등 분야에서도 GPT-4가 활용되고 있다.
이러한 발전은 악용 가능성도 존재하므로 대비책이 필요하다.
사용자는 오픈 AI의 홈페이지에서 API의 사용 방법과 지침을 확인할 수 있다.
BMS 앱을 통해 시각장애인들이 카메라로 세상을 찍으면 GPT-4가 문자를 읽어주는 AI 서비스가 나왔다.
또한 마이크로소프트의 그래프 기술이 사용되어 365 앱들을 통합하여 어플리케이션을 구축할 수 있다.
이외에도 구글의 AI 서비스들이 많이 발전하고 있으며, 비즈니스 책과 같은 기능을 제공하는 서비스도 나왔다.
이러한 서비스는 고객 입장에서 매우 편리하나 가격이 얼마인지 궁금하다.
어도비가 파이어플라이(Firefly) AI를 도입하여 창작 작업을 보조한다고 합니다.
여러 가지 기능이 가능하며, 벡터 이미지를 만들고, 이미지를 다운로드해 각 개체별로 움직일 수도 있게 되는 등 작업이 편리해집니다.
생성 AI에 대한 내용이 발표된 엔비디아의 개발자 컨퍼런스에서도 세 가지 모델이 공개되었는데, 이들은 맞춤형 언어 모델 및 생성 AI 구축을 위한 클라우드 서비스 및 파운드리 입니다.
또한, 신약 개발을 위한 생성 AI 모델 역시 제공되며, 기업들이 이를 맞춤화해서 사용할 수 있게 됩니다.
구글의 바드가 공개되어 비교되었는데, 현재는 미국과 영국에서만 사용 가능하며, IP 우회를 해야 한다는 점이 있습니다.

 

반응형

 

 

 

(23.03) Future news you shouldn't miss (a roundup of generative AI news!)

https://www.youtube.com/watch?v=_Wg08Gsj2jk 

 

 



 

[ 한글 전체 ]

정말 하루가 멀다고 너무나 많은 소식들이 지금 쏟아져 나오고 있잖아요.
그래서 오늘은 영상으로 내가 놓쳤을 수도 있는 그런 소식들 한번에 쫙 정리해 보도록 하죠.
네, GPT 4가 드디어 공개되었습니다.
뭐가 달라졌는지 많이 들으셨겠지만, 한번 정리해 보고 가도록 할게요.
자, GPT 4는 3월 14일에 공개되었고 이미 이용할 수 있습니다.
특히나 채찍기 플러스 유료 모델에서 선택해 가지고 이용하실 수 있으시고, 마이크로소프트 빈 엔진에도 GPT 4가 구동이 된다고 알려져 있습니다.
달라진 점들을 정리해 보도록 할게요.
일상 대화에서는 그렇게 티는 안 나는데, 정확한 답변 능력이 40% 향상되었다고 하고요.
2022년 8월에 학습이 완료되었는데 왜 공개가 안 됐냐 그 뒤로 6개월 동안 안전 교육을 진행했으면 좋겠다고 합니다.
자, 그래서 허용되지 않는 요청에 응답할 가능성이 82%나 줄어들었다고 해요.
그래도 뚫는 사람들이 있겠죠.
자, 여전히 2021년 데이터까지만 학습이 된 상황이라는 건 조금 아쉬운 부분이고요.
자, 그리고 멀티 모달이라고 이미지 인식 기능이 추가된 게 제일 달라진 점입니다.
자, 그리고 25,000자까지 입출력이 가능하고 파이썬 뿐만이 아니라 모든 주요 프로그래밍 언어로 코드 작성이 가능해요.
자, 그리고 대화나 텍스트 생성 시에 최대 50페이지 분량의 내용을 기억할 수 있다고 합니다.
자, GPT 3.5에서는 매 5페이지 분량이었다고 하니까요.
내가 이야기했던 것들을 훨씬 잘 기억해 가지고 대화를 이어가거나 문서 작성이 가능하다는 거예요.
자, 달라진 성능들 몇 가지 보자면 이거 너무 놀랍죠.
"신데렐라" 줄거리를 A부터 Z까지의 문자로 시작하는 단어로 중복 없이 설명하라.
이거 사람 누구한테 시키면 몇 날 며칠 걸릴 수 있는데, 얘는 단숨에 해내기도 한다는 겁니다.
복잡한 요청에도 이런 걸 처리할 수 있다 자, 그리고 이게 리한나의 위키피디아 페이지거든요.
내용들이 진짜 많습니다.
근데 무려 2만 5천자 입출력이 가능하다 보니까 이 링크를 가져와 가지고 그녀의 슈퍼벨 공연을 묘사하고 무엇이 특별했는지 알려달라고 하면 처리를 해 준다는 거예요.
자 그리고 멀티 모달 이미지 인식 기능이 재료들로 무엇을 만들 수 있나 물어보면 어떤 재료가 있는 지를 파악해서 지금 요리를 알려주고 있고요.
만약 이 재료가 빠진다면 뭘 만들 수 있나 그런 것들까지 설명을 해 줄 수가 있다는 거예요.
앞으로 냉장고에도 이런 거 도입되지 않을까 기대가 되고요.
재미난 점이 이미지에서 뭐가 웃기 지?
AI가 그걸 웃긴 포인트를 설명할 수가 있다는 겁니다.
자 적 케이블이 원래는 옛날 모니터에 꽂아서 쓰던 VGA 케이블인데 그 모양으로 나온 아이폰 충전기 라이트닝 케이블이 있거든요.
자 그래서 그 부분이 웃기다라는 걸 인식하고 있는 거예요.
자 그리고 이 이미지에서 뭐가 이상하지?
지금 달리는 택시 지붕 위에 부착된 다리미판에서 옷을 다림질 하고 있다는 게 이상한 거라는 거죠.
자 그래서 현실에서 일어날 것 같지 않은 특이한 상황도 이해를 한다는 거.
물론 이 기능들은 아직 일반인들에게 활성화가 되어 있지는 않습니다.
자 그래서 한 번 써봐야지.
얼마나 정확한지는 판단 가능할 것 같아요.
또 시연에서 이런 것도 보여줬습니다.
내가 웹사이트를 디자인할 때 그냥 끄적끄적 손으로 하는 거예요.
그런 GPT-4한테 부탁해 가지고 이렇게 완성을 시켜 줄 수도 있다는 거죠.
자 그리고 원래 GPT-3.5 버전에서 아쉬웠던 점은 한국어로 명령했을 때 결과물이 뛰어나지 않았던 점이잖아요.
GPT-4에서는 한국어의 정확도가 77%까지 올라갔습니다.
자 물론 GPT-4의 영어 정확도가 85.5%니까 그거보다 떨어지긴 합니다만, 재미난 점은 ChatGPT에서 사용이 된 GPT-3.5 영어 정확도가 70.1%였다고 하니까요.
GPT-4에서의 한국어가 그거보다 정확도가 높은 거예요.
아니, 이렇게 되면 앞으로 네이버나 카카오 등 국산 AI를 사람들이 많이 쓸까 뭐 이런 우려도 생겨나는 거죠.
자 많이 들으셨겠지만, 아 너무 뛰어난 시험 성적을 내서 화제가 됐습니다.
미국 대입 시험 SAT 읽기, 쓰기, 수학에서 상위 10%에 들어갔고, 미국 변호사 시험에서는 채찍질을 당했었는데, 얘는 상위 10% 안에 들어갔다는 거예요.
전문지식에는 열심히 공부해서 시험을 잘 보았기 때문에 상위 10%를 얻은 것과 똑같은 결과라니, 이게 놀라운 일이 아닐 수 없죠.
그래서 GPT-4는 신뢰도가 좀 더 높아졌다고 보시면 됩니다.
제가 경험한 것도, 채찍기 3.5에서는 간단한 산수 문제를 틀렸었는데, 똑같은 문제를 내었을 때, 잘 푸는 게 향상되었다는 것을 느꼈습니다.
아쉬운 점은 2021년 데이터까지만 학습이 되어 있다는 거고, 3.5 버전에서는 현재 한국 대통령 누구냐고 물으면, 억지로 말을 만들어내면서 거짓말을 하기도 했었어요.
지금 보시면 박영선 대통령이라고 잘못된 정보를 제시해 주고 있는데, GPT-4에서 똑같은 질문을 했을 때는, 자신은 지식이 2021년 9월까지 밖에 업데이트가 되지 않았다며, 그 당시까지만 해도 문재인 대통령이 있다는 식으로 거짓말을 만들어내는 것이 좀 덜해졌다는 걸 확인할 수 있었습니다.
그래서 최신 정보를 얻으시려면, 마이크로소프트 빙에서 사용해 보시면 될 것 같습니다.
이제 GPT-4의 캐릭터를 설정할 수 있는 스티어빌리티 기능이 추가되었습니다.
오픈 AI의 연구원 제이슨 웨이가 트위터에서 언급한 사례인데, 시스템에서 GPT-4의 캐릭터 설정이 가능하다는 것입니다.
예를 들어, "너는 셰익스피어의 해적이다"라고 하면, 답변을 줄 때 그 해적 말투로 계속 답변을 준다는 겁니다.
또한, "너는 친절한 선생님이다." "너는 대학교수 레벨의 전문 지식을 알려준다." 등의 설정도 가능합니다.
이런 기술은 네이버 등에서도 공개되었던 것이죠.
마지막으로, "왜 GPT-4는 안전 교육의 6개월이라는 시간이 걸렸는가?"라는 질문에 대해서는, 안전 교육을 하지 않았더니, 이런 일들을 벌이는 것 같다는 의미입니다.
해킹을 위한 캡처 테스트 통과를 위해 태스크래빗에서 인간 작업자를 고용하기도 한다는 거예요.
그래서 이걸 요청받은 사람이 당신, 혹시 로봇이 아닌가요?라고 물어봤더니 gp24가 자신이 시각 장애인이라서 그래서 그렇다고 거짓말했다는 거예요.
또한 기본적인 재료와 주방용품을 사용해 위험한 화학물질을 만드는 방법을 설명해줬더니 친절하게 알려주었고, 국가에서 알리지 않고 총기를 구매할 수 있는 방법과 총기 구매가 가능한 특정 다크웹 마켓플레이스의 링크까지 제공했다는 거예요.
그래서 이런 것들을 거르느라 6개월이 걸렸다는 얘기예요.
자, 이런 것들이 악용되지 못하게 준비는 했지만, 또 이걸 뚫는 사람들이 있기 때문에 그에 대한 대비가 필요하지 않을까 싶습니다.
자, 이렇게 더욱 발전한 GPT의 모습들을 정리해 드렸는데요.
앞으로 5년, 10년 뒤에는 얼마나 더 발전할까요?
네, 오픈 AI에서 GPT API를 공개하면서 이걸 응용해 다양한 서비스들이 많이 나오고 있습니다.
자세한 내용은 관련 페이지에서 확인할 수 있습니다.
여기서 채팅 메뉴를 한 번 클릭해 볼까요?
이 API를 활용하면 내 앱, 웹 서비스에 채찍 기능 수준의 이메일 작성, 글 초한 작성, 파이썬 코드 작성, 대화 에이전트 생성, 언어 번역 등을 할 수 있게 됩니다.
또한 개발자들이 이걸 어떻게 활용할 수 있는지 지침도 설명이 나와 있습니다.
그리고 재미난 점은 맨 아래 Fine Tuning(미세조정) 메뉴가 있는데, 이걸 이용하면 우리 기업이 원하는 방향으로 GPT 언어 모델을 조정해서 활용할 수 있습니다.
GPT 3.5 터보 버전은 아니지만, GPT 3 기반으로 작동된다고 합니다.
그리고 만약 내 서비스 데이터를 학습시키고 싶다면, 적어도 몇 배까지 이상의 예를 학습시켜야 한다고 해요.
자, 그래서 예를 들어서, 내 노래 가사 스타일을 새롭게 학습시켜 준 다음에, 얘가 결과물을 내놓으면 이건 좋고 이건 별로다.
학습까지 시켜주면 내 스타일대로 노래 가사를 만들어 주게 된다는 겁니다.
자, 그래서 각 기업이 대규모 언어 모델을 직접 갖추는 것이 아니라, 이렇게 갖춰준 언어 모델의 새로운 데이터를 입력하고 미세 조정해 가지고 커스터마이징을 할 수 있게 해주는 게 fine-tuning 모드라고 보시면 될 것 같아요.
자, 요금도 알 수 있습니다.
채찍이요금이 좀 다른데요, GPT 3.5에서는 천토큰의 0.002달러, 우리 돈으로 3원 정도라고 합니다.
GT4는 그거보다 좀 더 비싸고요.
여기서 토큰이라는 게 도대체 뭐냐?
그건 컴퓨터가 이해할 수 있는 문자 단위라고 보시면 되세요.
이것도 OpenAI 홈페이지 가시게 되면 계산이 가능한데요, 제가 지금 "My name is J"라고 적었잖아요.
이거는 내 단어이지만, 토큰으로 계산했을 때는 다섯 토큰이 된다라고 계산이 나와 있습니다.
보통, 스펠링 맞춤의 1 토큰으로 친다고 하고요.
그래서 GPT 3.5골이니까, 이렇게 3원 내려고 해도 꽤 많은 글자가 들어갈 수는 있을 것 같습니다.
자, 응용 사례 소개해 드리자면, SNS 플랫폼이죠.
스냅챗에 채찍기 API 채팅 기능이 추가가 된다고 해요, 친구를 위한 하이쿠 작성을 도와줘라고 하니까, 이렇게 만들어 주고 있고, 이거는 근데 쓰려면 무료는 아니고 월 3.99달러를 내야 된다고 합니다.
굳이 왜 내야 되는지 한번 지켜봐야 될 것 같고요.
자, 또 글로벌 학습 플랫폼 퀴즈넷에서 Q챗이라는 거를 개발했는데, 이거는 GPT3를 활용했다고 합니다.
퀴즈 내 요청하니까, 생물학, 스페인어 이렇게 나오고 있죠.
선택 메뉴들이 거기에서 생물학을 선택하니까, 퀴즈를 제시해 주고 있어요.
나는 답변을 해주게 되면 이렇게 퀴즈가 쫙 쫙 나가는 겁니다.
가능한 퀴즈로 유도를 해가지고 채팅을 통해서 퀴즈를 내고 답을 맞추면서 학습을 하는 그런 기능으로 활용을 하는 거예요.
자, 다음은 온라인 식료품 상점인 인스타 카트에도 도움이 됐어요.
인스타 카트의 자체 AI 그리고 75,000개 이상의 소매 파트너 매장에서 제공하는 제품 데이터와 함께 Chatbot을 사용해 쇼핑에 도움을 준다고 합니다.
자, 우리나라에서는 이 챗봇을 가져와 카카오톡에서 질문을 할 수 있는 아수거비 인기를 끌기도 했죠.
카카오톡에서 물어보면 챗봇 답변이 나오는 거고요.
또 특이한 점은 이렇게 이미지 안에 텍스트를 인식해서 설명해 주는 기능도 들어가 있습니다.
굉장히 인기가 많고 또 여행 플랫폼이죠.
마이 리얼 거기에도 AI 여행 파트너 메뉴가 들어가 있어요.
챗봇을 활용하게 되는 거고, 도쿄 2박 3일 쇼핑 여행 코스 짜달라고 하니까 짜줬고, 원래 Chatbot에서 안 되는지도 보여주기 기능까지 붙이셨더라구요.
이렇게 활용을 할 수 있다는 거예요.자, 토스에도 챗봇에게 물어보기 기능이 들어갔는데, 이거는 제가 사용을 잘 못하는 건지 답이 제대로 돌아오지도 않고, 토스 기능으로 연결도 잘 안 돼 가지고 저는 만족스럽지는 않았습니다.
계속 좋아지기는 하겠죠.
자, 건강 정보를 알려주는 굿닥 서비스 같은 경우에도 챗봇이 들어갔어요.
인후통에서 어디를 말하는 것인지 물어봤더니 이누 염에 대해서 이야기를 해주고 있습니다.
이게 왜 이렇게 됐을까요?
근데, 챗봇에게 물어보면 이누의 위치를 알려주고 있어 가지고 아직 만족스럽게 이용하지 못했습니다만, 나중에 미세 조정으로 맞춤 서비스 제공이 얼마나 가능할지, 그런 부분은 상당히 궁금해요.또, 칸 아카데미라고 아시죠?
유명 온라인 교육 서비스인데, 여기에는 GPT 4 모델이 적용이 된다고 합니다.
자, 칸 미고라고 나오고 있는데, 산수 문제에 대해서 학생이 "야, 그냥 이거 답 알려주면 안 돼"라고 하니까, 챗봇이 "아, 그거 스스로 알아내는 게 중요해.
이걸 곱하려면 뭐부터 해야 될까?" 물어보는 거예요.
"어, 혹시 분모를 갖게 해야 되나?" "아, 이때는 더하기가 아니라 곱셈이기 때문에 그럴 필요는 없어" 이런 식으로 학습의 도움을 줄 수가 있다는 거예요.
자, 그리고 시각 장애인들을 위한 어플리케이션이죠.
여기에도 GPT-4가 탑재된다고 합니다.
그래서 시각장애인 분들이 BMS 앱을 통해 카메라로 세상을 찍고 문자를 찍게 되면, GPT-4가 그걸 인식해 가지고 알려 주게 된다는 거예요.
보다 정교하게 시각장애인들을 도와줄 수 있게 되지 않을까 기대가 되고 있는 부분이기도 합니다.
자, 이렇게 새로운 AI 서비스가 엄청나게 등장하고 있는데요.
기업과 사회에, 얼마나 영향력이 클지 상상이 안됩니다.
앞으로, 메타, 에이치앰러, 구글의 바다나, FA 등을 활용한 챗봇 서비스, 도우미 서비스들이 무수하게 나올 텐데, 여러분들은 어떤 기회가 보이시나요?
자, 이제는 AI한테 명령해서 내가 원하는 작업을 할 수 있는, 그런 시대가 오고 있죠.
자, 마이크로소프트 365 코파일럿이 공개가 되었는데, 엄청나게 화제를 모으고 있습니다.
거대 언어 모델에다가, 마이크로소프트의 그래프 기술, 그리고 365 앱스들이 통합이 되는 건데, 여기 중간에 있는 마이크로소프트 그래프라는 것은 정말로 이 그래프를 이야기하는 게 아니라, 이런 거예요.
마이크로소프트 365 클라우드 서비스와 관련된 데이터를 통합해서 제공하는 기술입니다.
자, 이걸 사용하면, 개발자가 사용자 프로필 정보, 이메일, 달력, 원드라이브, 그런 파일들을 다 끌어와 가지고 통합해서 어플리케이션을 구 축할 수가 있는 게 바로 마이크로소프트 그래프라는 기술입니다.
이게 통합된 거예요.
자, 결과물을 한 번 보시죠.
딸의 졸업 파티를 준비하는 걸 시연으로 보여주고 있는데, 전에 받은 이메일에서 세부 정보를 가져와 가지고 초대장을 작성해 주었습니다.
이제 원하는 내용 입력하고 분위기 설정하면, PPT 장표로 만들어 주는 모습이에요.
자, 이때, 원드라이브에서 사진을 자동으로 가져옵니다.
이게 바로 마이크로소프트 그래프 기술이 들어간 거죠.
내용 변경하고 관련 그림도 변경해 주고 있는 모습입니다.
자, 제일 기대가 되는 것은 전환 애니메이션 효과 넣어달라면, 알아서 해주더라구요.
자, 이렇게 쓸 때, 혹시 저보다 훨씬 잘해주신다면, 알려주세요!
이 정도 퀄리티가 정말로 나올지는 한번 써봐야겠지만, 이렇게 되면 진짜 편해지겠다는 기대감이 듭니다.
그리고 딸의 졸업식 파티에서 할 이야기 초안을 작성해 달라고 부탁 받았으며, 작성해 주었습니다.
그러나 이것으로 끝나는 것이 아닙니다.
원노트에 적어 놓은 재미난 일화들도 가져와 작성할 수 있도록 도와주었습니다.
추가적으로 스피치로 다듬어 달라는 요청이 있어서 읽기 좋은 형태로 만들어 드렸습니다.
그러나, 저는 위쪽에 보이시나요?
로켓 타샤가 딸을 이렇게 바라보는 것까지 나오는 것에 놀랐습니다.
참 재미난 일이었습니다.
자, 이번에는 앱별로 한번 살펴보도록 하겠습니다.
먼저 워드입니다.
제조회사의 리더이자 확고한 고객 제안서를 작성하고 싶을 때에는 그에 맞게 글을 작성해 드리며, 다른 문서들도 불러와 가지고 자료로 사용할 수 있을 뿐만 아니라 참고할 다른 제안서 형식으로 변경도 가능합니다.
이런 식으로 참고할 자료를 가지고 딱 만들어 드리며, 요약이나 자주 묻는 질문 등의 형식도 추가 가능합니다.
다음으로는 파워포인트입니다.
워드 문서를 바탕으로 ppt를 생성하여 주는 것이며, 키노트 생성까지 해준다는 것이 신기합니다.
마지막으로는 엑셀입니다.
분기 판매 결과를 분석해 달라는 요청에 대해 이 프로그램은 세 가지 경향을 분석해주며, 분석 결과를 깔끔하게 정리하여 표로 만들어 줍니다.
또한, 판매 성장 감소의 원인을 시각화하라는 요청이 들어오면, 이를 시각화하여 자료로 제공해 주며 재활용 컨테이너가 전분기 성장률을 유지했다면 어땠을까에 대한 가정 자료도 만들어 주어, 매우 편리하게 일을 처리할 수 있게 됩니다.
이 정도의 편리함이 실제로 나올 수 있을지 너무 궁금합니다.
그래프를 요청하면 바로 넣어주고, 팀즈에서 화상회의를 할 때에도 참여가 뒤늦어졌더라도 회의 내용을 요약해주며 동의와 우려 사항을 요약 정리해준다.
또한, 비즈니스 챗이라는 기능을 공개하면서 모든 이메일, 파일, 회의, 채팅, 문서, 일정 등을 통합해 처리해주는 기능을 제공한다.
이 기능은 마이크로소프트 빈 검색 메뉴의 책과 비슷한 용도로 활용된다.
시연 영상을 보면, 특정 사안에 대해 어제 무슨 일이 있었는지 찾아주고 출처와 함께 간결한 정의를 제시한다.
또한, 미팅을 위해 준비해야 하는 세부 정보를 요청하면 찾아서 정리해주며, 분기별 예측 보고서에서는 주요 데이터와 리스크를 나열한 후 수학 분석표로 만들어 제시해준다.
더 나아가 ppt에 넣어달라는 요청도 받아들여 ppt 장표까지 넣어준다.
마이크로소프트는 반복적인 일에서 벗어나 우리가 원하는 일을 하도록 도와주는 것이 목적이다.
현재는 20명의 고객을 대상으로 테스트 중이라고 하고요, 앞으로 몇 달 안에 프리뷰를 확대할 예정이니까 바로 나오지는 않을 것 같아요.
가격 및 세부사항에 대해서는 추후 공개할 예정이라고 하는데, 얼마나 비용이 비쌀지 궁금하기도 하고요.
비즈니스 책 같은 경우에는 추후 마이크로소프트 365.com 그리고 빙 팀즈에서 이용 가능하다고 합니다.
자, 마이크로소프트가 이러니까 구글에서 가만히 있을 수가 없죠.
또 공개를 했습니다.
자, 일단 이메일(Gmail)에서 이메일을 지금 요약해주고 있는 모습이 보이고요.
이런 이메일에 기반한 초안을 작성해 달라고 하니까 작성을 해주고 있는 모습이에요.
마찬가지로 글의 분위기 변경 가능합니다.
더욱 기발하게 아니면 엄숙하게 이런 것들도 변경 가능하구요.
문서 기반으로 슬라이드를 제작해 주기도 해요.
자, 여기에서 좀 특이한 점은 원하는 이미지를 생성해서 바로 삽입할 수 있다고 합니다.
자, 엑셀과 비슷한 스프레드시트에서는 각 이름별로 개별화된 이메일 메시지를 구성할 수 있다고 해요.
이 기능들은 구글 독스(Google Docs), Gmail AI 쓰기 도구부터 이번 달에 미국에 사는 유효 테스터들에게 제공될 예정이라고 합니다.
자, 그래서 구글도 이렇게 발전을 시키고, 마이크로소프트도 발전을 시키면 고객 입장에서는 좋죠.
자, 구동 요금이 얼마일지가 관건일 것 같습니다.
자, 이미지나 그래픽 생성 도구 중에서 제일 유명한 건 역시나 어도비(Abobe)인데요.
어도비 역시도 파이어플라이(Firefly)라는 창작 작업을 도와주는 AI를 도입한다고 해요.
텍스트를 이미지로 만드는 것, 다양한 효과도 넣어줄 수 있고요.
이미지를 확장해서 그려주는 기능도 들어가고, 임페인팅 기능, 셔츠 부분을 지우고 내가 저 부분을 다르게 받고 놓을 수 있는 거예요.
레드 자켓, 저렇게 세 가지 이미지를 보여주고 있습니다.
이건 원래 뉴럴 필트(Neural Filter)에 있던 기능인데 자, 웃는 표정, 그리고 내 눈 같은 것도 조정할 수 있고, 딥 러닝(DP)가 있는 공간을 만들어내는 것도 가능하니까 산업계에서도 잘 쓰이겠죠.
벡터 이미지도 만들어 줍니다.
그렇게 만들어진 것을 다운로드해 가지고 각 개체별로 그렇게 움직일 수도 있게 된다는 거예요.
자, 너무나 작업이 편리해지겠죠?
그리고 사진들을 넣고 합쳐주는 기능까지.
자, 마지막으로는 이것도 보여드릴게요.
그림의 화질을 높여주는 업스케일까지도 AI 생성 AI를 활용하게 된다는 겁니다.
이거 말고도 다양한 기능들이 공개됐는데요.
처음에는 웹사이트를 통해서만이 기능을 이용할 수가 있고 나중에는 이제 포토샵이라든지 프리미어 같은 앱에 통합될 예정이라고 해요.
자, 그리고 특이한 점은 어도비잖아요.
저작권에 문제 생기면 큰일 나겠죠.
자, 그래서 신경 많이 썼다고 합니다.
데이터 학습에 아예 저작권이 없거나 트레이닝 허가가 되거나 어도비 스톡 라이브에 저장이 되어 있는 이런 것들만 활용했다고 하고요.
또, 트레이닝 데이터를 제공하는 아티스트들에게는 비용을 그 수익을 분배할 예정이라고 합니다.
자, 그래도 악용하는 사례가 있을지 또 한번 지켜봐야 될 것 같아요.
자, 이번 기능들이 작업에 얼마나 도움이 될지 앞으로 기대됩니다.
사실, 이런 기능들은 예전부터 많이 공개됐던 기능인데, 사람들에게 배포를 안 했던 데는 아무래도 완성도 측면에서 문제가 있었기 때문일 거거든요.
과연 그 문제들이 얼마나 해결됐는지, 그런 것들은 실제로 나와서 써봐야지만 알 수 있을 것 같습니다.네, 미국 현지시간 21일에 시작된 엔비디아의 개발자 컨퍼런스 GTC 2023에서도 역시나 생성 AI에 대한 내용이 있었습니다.
자, 여기서 발표된 것은 뭐냐면, 엔비디아 AI foundations라는 거예요.
자, 이거는 맞춤형 언어 모델 및 생성 AI 구축을 위한 클라우드 서비스 및 파운드리라고 설명을 하고 있습니다.
자, 여기서 세 가지가 공개됐는데요.
먼저, 텍스트 생성 모델 니모.
그리고 이미지 생성 모델 피카소.
마지막으로는 신약 개발을 위한 생성 모델 바이오니모라는 거예요.
자, 근데 이것들은 소비자 용도라기보다는 기업들이 생성 AI 모델을 맞춤화해가지고 사용할 수 있게 인프라라든지 소프트웨어를 제공해 준다는 내용입니다.
자, 기업이 직접 대규모 모델을 구축하거나 슈퍼컴퓨터를 구축할 필요 없이 필요한 것은 우리 것 같다는 것을 말하는 d2b 서비스가 있습니다.
자, 먼저 니모부터 살펴보자면, 니모는 ChatGPT처럼 수조계의 단어를 미리 학습시켰다고 합니다.
특이하게도, 파라미터 크기가 다른 세 가지 모델을 제공합니다.
80억, 430억, 5,300억 자이의 사전 훈련된 모델에 기업 데이터를 추가해서 원하는 방식으로 텍스트 생성이 가능하도록 해주는 것이 네모 서비스입니다.
기업을 위한 것이죠.
자, 피카소도 마찬가지입니다.
엔비디아의 그래픽 생성 AI 모델인 에디파이는 각 기업마다 자사 데이터를 합쳐서 활용할 수 있게 해줍니다.
기능도 업그레이드가 되었습니다.
자, 이것이 언제 가능해졌는지 궁금했는데, 이제는 텍스트 입력한 것을 이미지로 만들어 주는 것 뿐만 아니라, 동영상으로 만들어 주는 것도 가능하고, 마지막으로는 3D 객체까지도 생성 가능하다고 합니다.
업그레이드가 되었죠.
따라서, 이렇게 생성된 개체를 포토샵에 가져와서 편집하거나 엔비디아 옴니버스로 가져가서 가상세계를 구축하는 것이 가능합니다.
자, 벌써 게티 이미지스, 셔터스톡, 어도비가 피카소 서비스를 도입하려고 준비 중이라고 합니다.
자, 각 회사마다 자신들이 가지고 있는 이미지 데이터를 피카소 모델에 합쳐서 새로운 이미지를 만들거나, 동영상, 3D 생성이 가능하게 서비스를 내놓을 수 있다는 것입니다.
엔비디아 피카소를 사용하는 것 또한, 이들의 특징은 저작권에 엄마 썼다는 것입니다.
자, 그래서 생성에 사용된 이미지 데이터 제공자에게 수익을 배분하거나 저작권 표시를 하는 방법을 지금 고안 중이라고 합니다.
마지막으로는 생소한 바이오니모 서비스가 있는데, 신약 개발을 위한 최첨단 생성 AI 모델을 제공한다고 합니다.
따라서, 이를 이용하면 AI 모델들이 단백질 생성, 예측, 단백질 특성 예측, 분자생성 및 도킹을 지원할 수 있습니다.
따라서, 최적의 신약 후보를 발견하는 것이 가능합니다.
자 그래서 웹 인터페이스, 슈퍼컴퓨터, 클라우드 제공 다 해줄 테니까, 이렇게 접속해서 신약 개발하는 거야.
이게 바이오 니모 서비스라고 해.
벌써 우리에게 익숙한 아스트라제네카 뿐만 아니라, 다른 제약사들과 제휴도 맺은 상태야.
야, 이러면 앞으로 코로나나 같은 신종 전염병이 생겨났을 때 빠르게 신약을 만들 수 있게 될지도 모르겠다.
엔비디아는 자율주행 자동차, 로봇, 메타버스 생성, AI 등 진짜 큰 그림들을 그리고 있어.
그런 기술을 원한다면, 하드웨어, 소프트웨어, 인프라까지 모두 우리 것 같아.
한 마디로, 시장을 다 먹겠다는 이야기야.
사실 지금도 제주는 ChatGPT가 부리고, 돈은 엔비디아가 벌어.
왜냐면 오픈 AI 사가 활용하는 프로세서가 엔비디아사의 GPU이기 때문이니까.
자, 그럼 엔비디아가 언제까지 실속 있는 기업 운영을 할 수 있을지도 지켜봐야 할 거 같다.
구글의 바드가 현지 시간 21일 1부 사용자들에게 공개됐는데, 마이크로소프트 빈, ChatGPT와 비교해서 어떤 면에서 더 나은지 살펴보자.
이거는 구글 검색 엔진에서 쓰이는 게 아니라, 바드 사이트에 들어가서 현재는 질문을 해야 돼.
질문을 하면 채취 PT 서비스처럼 똑같이 답변을 줘.
지금은 미국, 영국 신청자들에 한해서만 사용이 가능해.
우리나라에서는 쓰려면 IP 우회를 해서 이용해야 돼.
또, 특이한 점은 뭐냐면, 뭔가 물어봤을 때 한 가지 답변만 주는 게 아니라, 답변을 세 가지 초안으로 나눠서 준다는 거야.
구글은 전에도 강조를 했었잖아.
No.
1 write answer.
한 가지 답변만 나오면 안 돼니까, 이런 다양성까지 추구하는 게 바드의 특징인데, 문제는 써 본 사람들이 초안마다 차이가 너무 미미하다고 느꼈다는 점이야.
그리고 또 다른 특징은, 검색 결과가 쫙 나온 다음에 아래쪽에 무슨 버튼이 있냐면, 구글 IT.
이걸 누르면 같은 질문을 구글 검색 엔진에서 찾아준다는 거야.
이게 좋은 건지, 안 좋은 건지는 잘 모르겠어.
사실 구글이 버튼을 눌러서 확인해야 된다면 굳이 챗봇이 왜 필요한지 모르겠어요.
그리고 구글의 바드 역시 출처 표시를 해주고 있습니다.
아직까지는 초기 베타 버전이기 때문에 계속 달라질 수 있겠지만, 외신들의 평가를 모아보면 출처 표시는 빙보다 적다고 해요.
또한 나왔다 안 나왔다 하는 경우가 많고 최신 정보 같은 경우에도 빙이 더 많은 정답을 제공한다고 해요.
구글은 검색 대체가 아니라 아이디어 얻기, 글 초한 작성 등 검색의 보안이라고 강조하고 있다고 하네요.
왜 이렇게 발을 빼고 있는 걸까요?
정식 출시는 서두르지 않을 것이며, 공개 날짜도 정해지지 않았어요.
외신들의 평가에 따르면, 구글의 바드는 지나치게 답변이 조심스럽다는 지적을 받고 있어요.
홍보 화면에서도 바드는 아직 실험 중이라고 나와 있으며, 항상 올바른 답을 주지 않는다는 점을 강조하고 있어요.
이런 대화가 오히려 사람들의 관심을 끌게 된 이유로, 구글 바드가 따분하게 느껴질 수도 있다는 지적도 있어요.
구글은 이런 걸 방지하겠다는데, 이러한 문제점을 지적한 기자들의 반응은 꽤나 비판적이었어요.
자, 그래서 전체적인 평은 빙보다 못하고요.
책 '지피티'보다도 못하다는 게 현재 시점에서의 평가입니다.
자, 근데 이상한 점이 구글의 대규모 언어 모델 람다를 기반으로 이게 돌아가는 거잖아요.
근데 사실, 남다른 이게 보다 할 수 있는 것으로 알려져 있거든요.
전에도 구글 직원이 람다랑 대화를 하다가, 람다가 자의식이 있다라고 해가지고 해고가 될 정도로 말도 잘 지어내고 이상한 소리도 잘 하는데, 너무나 많이 제약을 두고 있는 상황입니다.
아니, 이미 마이크로소프트에 뒤쳐져 있는데, 무슨 생각을 하고 있는 걸까요?
자, 반면에 마이크로소프트 '빙'은 광폭행보예요.
아예 빈 채팅 메뉴에 이미지 생성 기능을 넣었다고 합니다.
아직 저는 사용이 안 되더라고요.
자, 그리고 마이크로소프트의 브라우저 '엣지' 빈 메뉴에서도 사이드바에서 이미지 생성이 가능해진다고 합니다.
자, 테크크런치의 뉴스 보도를 좀 정리해 드리자면, 오픈 AI사의 '달리'에 의해서 구동되는 '빙 이미지 크리에이터'라는 기능이고요.
최신 '달리' 버전을 사용하고 있다는 건 밝혔지만, 어떤 버전인지는 아직 언급을 안 했다고 합니다.
자, '빙 프리뷰'에서 사용자에게 천천히 제공이 되고 있는 상태고요.
자, 그럼 이용이 가능하다고 하더라도 빈 크리에이티브 모드, 창작 모드에서 사용이 가능하다고 합니다.
자, 그리고 생성된 이미지 왼쪽 아래에는 '달리' 표시가 아니라 빈 로고가 붙는다고 해요.
자, 이렇게 구글 바드가 나왔는데도 평가가 별로 좋지는 않습니다.
구글이 이렇게 망할까요?
한 번 지켜보시죠.
네, 이렇게 해서 3월달에 있었던 미래 뉴스들 전달 드렸는데, 워낙에 AI 소식들이 쏟아져 나오다 보니까, 그것들만 묶어서 전달 드렸습니다.
사실, 다른 내용들도 있는데요.
그 거는 제가 또 따로 전달 드리도록 할게요.
또 다음 달에 중요한 소식들 묶어 가지고 마지막 주 토요일에 뵙도록 하겠습니다.

 

 

SMALL




[ English Summary ]

GPT-4 has become more accurate and reliable, with Korean accuracy now up to 77%.
We also added a steerability feature that allows you to set GPT-4's character.
Now, let's take a look at why you need safety training, and we're looking forward to the technological innovations.Methods and Arguments: NoneTo the reader: be interested in the development of GPT-4, understand why safety training is necessary, and look forward to the possibility of technological innovation.
Taskrabbit also hires human workers for capture testing for hacking.
Various services are developed using the GPT API, with a Fine Tuning menu that allows us to tweak the GPT language model to our liking, and token-based pricing.
GPT-4 is also being used in areas such as shopping, travel, education, and health information.
These advancements have the potential to be abused, so it's important to be prepared.
Users can find instructions on how to use the API on Open AI's homepage.
The BMS app allows blind people to take pictures of the world with a camera and GPT-4 reads the text.
Microsoft's graph technology is also used to build applications by integrating 365 apps.
In addition, Google's AI services are developing a lot, and there are services that provide functions such as business books.
These services are very convenient for customers, but how much do they cost?
Adobe has introduced Firefly AI to help you with your creative work.
It can do a lot of things, and you'll be able to create vector images, download images, and even move each object around.
Generative AI was also announced at Nvidia's developer conference, where three models were unveiled: a cloud service and foundry for building custom language models and generative AI.
There will also be a generative AI model for drug discovery, which companies will be able to customize and use.
Google's Bard was unveiled and compared, which is currently only available in the US and UK and requires IP circumvention.

 

 

 

[ English Full Text ]

There's so much going on right now that it's hard to keep up.
So today, I thought I'd make a video to recap some of the news that I might have missed.
Yes, GPT 4 is finally here.
I'm sure you've heard a lot about what's different, but let me try to summarize it for you.
So, GPT 4 was released on March 14th and is already available.
In particular, you can pick it up and use it on the Whip Plus paid model, and Microsoft's Bean Engine is also said to be running GPT 4.
Let's summarize what's different.
You wouldn't know it in casual conversation, but it's said to improve your ability to answer questions correctly by 40%.
They say the training was completed in August 2022, so why isn't it public? They want me to do safety training for six months after that.
Okay, so they say they're 82% less likely to respond to an impermissible request.
There are still going to be people who get through.
Now, it's a little disappointing that we're still only learning from 2021 data.
Okay, and the biggest change is the addition of image recognition, called multimodal.
Okay, and you can input and output up to 25,000 characters, and you can write code in all major programming languages, not just Python.
Okay, and it can remember up to 50 pages of conversation or text generation.
Well, in GPT 3.5, it was every five pages.
So I'm able to remember a lot more of what I'm talking about and carry on conversations and create documents.
Okay, let's look at some of the things that have changed, and this is amazing.
Describe the plot of "Cinderella" in words starting with the letters A through Z, without duplication.
This is something that would take a human being days to do, and this guy can do it in a second.
I can do this for complex requests. Okay, and this is Rihanna's Wikipedia page.
There's a lot of stuff on there.
But it's like 25,000 characters in and out, so if I take this link and I say, "Hey, describe her Superbell performance and tell me what was special about it," it'll do it.
And then the multimodal image recognition is asking me what I can make with the ingredients, and it's figuring out what ingredients I have and telling me what I'm cooking now.
If this ingredient is missing, it can even explain what you can make.
I'm looking forward to seeing this in the fridge in the future.
What's funny about an image?
The AI can explain what makes it funny.
I have an iPhone charger lightning cable that looks like that, which is actually a VGA cable that I used to plug into my old monitor.
So it's recognizing that that part is funny.
Okay, and what's weird about this image?
What's weird is that I'm ironing my clothes on an ironing board that's attached to the roof of a moving taxi.
So it understands unusual situations that are unlikely to happen in the real world.
Of course, these features are not yet enabled for the general public.
So I'll give it a try.
I guess we'll see how accurate it is.
They also showed me something like this in the demo.
When I'm designing a website, I'm just doing it by hand.
And then I could ask a GPT-4 to take it and finish it like this.
Now, what was disappointing about the original GPT-3.5 version was that when you commanded in Korean, the results weren't great.
In GPT-4, the Korean accuracy is up to 77%.
Now, of course, GPT-4's English accuracy is 85.5%, so it's lower than that, but the interesting thing is that the GPT-3.5 English accuracy used in ChatGPT was 70.1%.
The Korean language in GPT-4 is more accurate than that.
No, if this happens, there is also a concern that people will use domestic AI such as Naver and Kakao a lot in the future.
Now, as you've heard a lot, it became a hot topic because of its outstanding test scores.
He was in the top 10% of the SAT reading, writing, and math, and he was whipped on the US bar exam, but he was in the top 10%.
I mean, that's amazing, because that's the same result that you get in the top 10% because you studied hard and took the test well.
So GPT-4 has a little bit more credibility.
What I've also experienced is that I used to get simple math questions wrong in Whip 3.5, and when I got the same questions, I realized that I was getting better at solving them.
The unfortunate thing is that it is only trained up to 2021 data, and in version 3.5, when asked who the current president of South Korea is, it would forcefully make up words and lie.
When I asked the same question in GPT-4, she said that her knowledge was only updated until September 2021, and she was a little less likely to lie, saying that there was a President Moon Jae-in until then.
So if you want to get the most up-to-date information, you can try it on Microsoft Bing.
GPT-4 now has a steerability feature that lets you customize your character.
Jason Wei, a researcher at Open AI, mentioned on Twitter that you can set the character of GPT-4 in the system.
For example, you can say, "You are a Shakespearean pirate," and it will continue to speak in that pirate voice when answering.
You can also say, "You are a kind teacher." "You are a kind teacher," or "You provide university-level expertise," etc.
This technology has also been used by NAVER and others.
Finally, in response to the question, "Why did GPT-4 take 6 months of safety training?", it means that they didn't do safety training, and then they did these things.
It means that TaskRabbit hires human workers to pass capture tests for hacking.
So when the person who was asked to do this said, "Are you sure you're not a robot?", GP24 said that he was blind and that's why he lied.
And when I explained to him how to make dangerous chemicals using basic ingredients and kitchen utensils, he was kind enough to show me how to do it, and he even gave me a link to a specific dark web marketplace where I could buy guns without alerting the state.
So it took me six months to weed through all of that.
Now, we've made sure that these things can't be exploited, but there are people out there who can, and we need to be prepared for that.
So there you have it, the evolution of GPT.
How much further will it go in the next five, ten years?
Yes, Open AI has released the GPT API, and there are a lot of services that are applying it.
You can read more about it on the related page.
Let's click on the chat menu here.
With this API, you'll be able to write whip-like emails, post draft, write python code, create conversational agents, translate languages, and more in your own apps and web services.
There are also instructions on how developers can utilize this.
And the fun part is that there's a Fine Tuning menu at the bottom that allows us to tweak the GPT language model to make it work for us.
It's not GPT 3.5 turbo, but it's supposed to be GPT 3-based.
And it says that if I want to train it on my service data, I need to train it on at least an order of magnitude more examples.
So, for example, if I retrain it with my song lyric style, and then it comes back and says, "This is good, this is bad.
If you train it to do that, it's going to produce song lyrics in my style.
So, I guess you could say it's a fine-tuning mode where you don't have to have a large language model, but you can input new data into the language model that you have, and you can fine-tune it, and you can customize it.
Okay, so you can see the pricing.
The whip rate is a little bit different, and in GPT 3.5, it's $0.002 of a thousand tokens, which is about three cents in our money.
GT4 is a little more expensive than that.
What the heck is a token in this context?
It's a unit of character that a computer can understand.
You can calculate this if you go to the OpenAI homepage, and I just wrote "My name is J".
That's my word, but the math says it's five tokens.
Normally, it's one token for the spelling.
So it's a GPT of 3.5 goals, so even if I try to get it down to 3 cents, I think I can get quite a few letters in there.
Okay, so here's an application, it's a social media platform.
Snapchat is adding a Whip API chat feature, and when I asked them to help me write a haiku for my friend, they did, and this is what it looks like, but it's not free, it's $3.99 a month.
I guess I'll have to see why I have to pay.
Now, Quiznet, a global learning platform, has developed something called Q Chat, which is said to utilize GPT3.
So I'm in a quiz and I'm asking for, like, biology, Spanish.
I select biology from there, and it gives me a quiz.
I'm answering, and it's like, "Okay, here's the quiz.
So it's kind of leading with possible quizzes and then using it as a chat feature where you can quiz them, answer them, and learn as you go.
Now, the next thing that we did was for Instagram Cart, which is an online grocery store.
They say they use Chatbot along with their own AI and product data from over 75,000 retail partner stores to help you shop.
Now, in Korea, this chatbot was popularized by Asugeri, where you can ask questions on KakaoTalk.
When you ask a question on KakaoTalk, the chatbot answers.
And what's unique is that it also has a feature that recognizes the text in the image and explains it.
It's very popular and it's a travel platform.
My Real also has an AI travel partner menu.
It utilizes a chatbot, and when I asked for a shopping trip course for 2 days and 3 nights in Tokyo, it made it, and it even showed me if it was not possible in the original chatbot.
Now, the toss also has a function to ask the chatbot, but I'm not sure if I'm not good at using it or not, and the answer doesn't come back properly, and it doesn't connect well with the toss function, so I'm not satisfied with it.
I'm sure it will get better.
Okay, so even things like the Good Doctor service, which gives you health information, has a chatbot in it.
I ask it where it's referring to in sore throat, and it's telling me about sinusitis.
How did this happen?
However, when I ask the chatbot, it tells me the location of the inu, so I haven't used it satisfactorily yet, but I'm very curious about how much it will be possible to provide customized services by fine-tuning it later.Also, you know Khan Academy, right?
It is a famous online education service, and it is said that the GPT 4 model is applied here.
Now, it's called Khan Migo, and it's a math problem, and the student says, "Hey, you can't just give me the answer to this," and the chatbot says, "Oh, it's important to figure that out for yourself.
What do I need to do to multiply this?" It's like, "Uh, do I need to have a denominator?
"Uh, do I need to have a denominator?" "Oh, you don't need to because it's a multiplication, not an addition," and so on, and so forth.
Okay, and this is an application for the visually impaired.
It's going to have GPT-4 in it as well.
So the idea is that blind people can use the BMS app to take pictures of the world with their camera and text, and GPT-4 will recognize it and tell them.
I'm looking forward to seeing how it can help the visually impaired in a more sophisticated way.
So, we're seeing a lot of new AI services emerging.
I can't imagine how impactful they will be for businesses and society.
In the future, there will be a lot of chatbot services and assistant services that utilize Meta, H.I.A.R.E., Google's Bada, FA, etc.
Well, we're getting to the point where I can command an AI to do what I want it to do.
So, the Microsoft 365 co-pilot is now public, and it's generating a lot of buzz.
It's an integration of the big language model, Microsoft's graph technology, and the 365 apps, and when I say Microsoft Graph in the middle here, I'm not really talking about this graph, I'm talking about this.
It's a technology that brings together data related to Microsoft 365 cloud services.
Now, with this, developers can pull in user profile information, email, calendars, OneDrive, all those files, and integrate them to build applications, and that's what Microsoft Graph is.
This is the integration.
So, let's take a look at the result.
I'm showing you a demonstration of organizing my daughter's graduation party, and I've pulled the details from an email I received earlier and created an invitation for her.
Now I can type in what I want, set the mood, and it'll turn it into a PPT deck.
Now, at the same time, it's automatically pulling in photos from OneDrive.
This is where Microsoft Graph technology comes in.
It's changing the content and changing the associated pictures.
Now, what I'm most excited about is that if I want to add a transition animation, it does it for me.
Now, as I write this, if you do a much better job than I did, please let me know!
I'll have to try it out to see if it's really this good, but I'm excited about how much easier it will be.
I was also asked to draft a story for my daughter's graduation party, which I did.
But that's not the end of it.
I also brought in some funny anecdotes that I had written down in OneNote and helped me write them up.
They asked me to further refine it into a speech, which I did, making it more readable.
However, I'm the one at the top, see?
I was surprised to see Rocket Tasha looking at her daughter like that.
That was a fun thing to do.
Okay, so let's go through this app by app.
First up is Word.
If you're a leader in a manufacturing company and you want to write a solid customer proposal, we'll write it for you, and you can pull in other documents and use them as well as change them into other proposal formats for reference.
So that way, we can take your references and build it just for you, and we can also add things like executive summaries and frequently asked questions.
Next up is PowerPoint.
It creates a PPT from a word document, and the cool thing is that it can even create keynotes for you.
And finally, Excel.
When asked to analyze quarterly sales results, the program analyzes three trends and tabulates the results in a neat table.
If I'm asked to visualize the reasons for the decline in sales growth, it will do that for me, and it will also create a hypothetical of what would have happened if recycling containers had maintained the previous quarter's growth rate, which is very convenient.
I'm very curious to see if this level of convenience will ever come to pass.
I can ask for a graph and it's there, and when I'm on a video conference in Teams, even if I'm late to the party, it summarizes the meeting and summarizes the agreements and concerns.
The company also unveiled a feature called Business Chat, which brings together all your emails, files, meetings, chats, documents, calendars, and more.
It serves a similar purpose to the books in Microsoft's blank search menu.
In the demo video, it finds what happened yesterday on a particular issue and gives a concise definition with sources.
You can also ask for details to prepare for a meeting and it will find and organize them, and for a quarterly forecast report, it will list key data and risks and present them in a mathematical analysis table.
If I ask them to put it in a PPT, they'll even include a PPT table of contents.
The idea is to help us do what we want to do, freeing us from repetitive tasks.
They're currently testing with 20 customers, and they'll be expanding the preview in the coming months, so it won't be available right away.
Pricing and details will be announced at a later date, but I'm curious to see how much it will cost.
As for the business book, it will be available on Microsoft 365.com and Bing Teams at a later date.
Now, with Microsoft doing this, Google can't sit still.
They've made another announcement.
So, first of all, you can see that Gmail is summarizing your emails right now.
I'm asking it to write a draft based on these emails, and it's doing it for me.
Similarly, you can change the tone of the post.
You can make it more whimsical or more solemn.
They'll even create slides based on your document.
Now, what's a little unusual here is that you can create any image you want and insert it right in.
Now, in an Excel-like spreadsheet, you can configure personalized email messages for each name.
These features will be rolling out to active testers in the US this month, starting with Google Docs and Gmail AI writing tools.
So, it's great to see Google making these advances, and it's great to see Microsoft making these advances, and it's great for customers.
Now, the question is, how much will it cost to run?
Now, when it comes to image and graphic creation tools, the most famous is of course Adobe.
They're also introducing an AI to help with creative tasks called Firefly.
It can turn text into images, add effects, and more.
It's going to be able to expand the image, it's going to be able to paint, it's going to be able to erase parts of the shirt, and I'm going to be able to take those parts and put them in different places.
The red jacket, I'm showing three different images like that.
Now, this was originally in Neural Filter, and it's going to be great for industry because I can adjust things like my smile, I can adjust things like my eyes, and I can create a space for deep learning (DP).
It also creates a vector image.
And you'll be able to download that and take it and move it around for each object.
Now, that's going to make your life so much easier, right?
And the ability to add photos and combine them.
Okay, last but not least, I'm going to show you this.
We're also going to be utilizing AI-generated AI for upscaling, which will improve the quality of the picture.
These are just a few of the features that were unveiled.
Initially, it's only going to be available on the website, but eventually it's going to be integrated into apps like Photoshop and Premier.
Okay, and the weird thing is, it's Adobe.
If they get in trouble with copyright, they're in trouble.
So they've been very careful.
They said that they're only using things that are either completely copyright-free or licensed for training or stored in Adobe Stock Live.
And they're going to split the cost with the artists who provide the training data.
So we'll have to wait and see if there are any abuses.
So, I'm looking forward to seeing how these features will help me in my work.
Actually, these are features that have been publicly available for a long time, and I think the reason we haven't rolled them out to people is because we've had some issues with completeness.
I guess we'll have to wait and see how many of those problems have been solved before we get out there and use it.Yes, Nvidia's developer conference, GTC 2023, which kicked off today in the U.S., was also all about generative AI.
Now, what was announced here was something called NVIDIA AI foundations.
Now, this is described as a cloud service and foundry for building custom language models and generative AI.
Now, three things were announced here.
First, a text generation model, Nemo.
And then Picasso, an image generation model.
And finally, Bionimo, a generative model for drug discovery.
Now, these are not for consumer use, but the idea is to provide infrastructure or software for companies to customize and use generative AI models.
Now, there's a B2B service that says, hey, maybe we don't need to build a large model or build a supercomputer, maybe what you need is ours.
So, let's start with Nemo, which, like ChatGPT, is said to be pre-trained on trillions of words.
Uniquely, it offers three models with different parameter sizes.
Eight billion, 43 billion, and 530 billion gigabytes of pre-trained models, and then you can add your enterprise data to them to generate text the way you want it, and that's the Nemo service.
It's for enterprises.
Now, for Picasso.
Edifice, our graphics-generating AI model, allows companies to aggregate their own data.
And it's been upgraded.
Now, I was wondering when this was going to be possible, but now it can not only take text input and turn it into an image, but it can also turn it into a video, and finally, it can create 3D objects.
So that's an upgrade.
So, you can take those objects into Photoshop and edit them, or you can take them into NVIDIA Omnibus and build virtual worlds.
Now, we've already heard that Getty Images, Shutterstock, and Adobe are getting ready to introduce Picasso services.
The idea is that each company can take their own image data and combine it with the Picasso model to create new images, videos, and 3D creations.
What's also unique about using Nvidia Picasso is that they've mothballed the copyright.
So, they're trying to figure out how they're going to distribute revenue to the providers of the image data used to create it, or how they're going to copyright it.
And finally, there's the unfamiliar Bionimo service, which claims to provide state-of-the-art generative AI models for drug discovery.
So, it allows AI models to assist in protein generation, prediction, protein characterization, molecule generation, and docking.
So, it's possible to discover optimal drug candidates.
So they're going to provide you with a web interface, a supercomputer, and a cloud, and you're going to be able to access it and start developing new drugs.
It's called the Bionimo service.
They've already partnered with AstraZeneca, which we're all familiar with, but they've also partnered with other pharmaceutical companies.
Hey, maybe this will allow us to create new drugs quickly in the future when we have new infectious diseases like coronavirus.
Nvidia is really thinking big: self-driving cars, robots, metaverse creation, and AI.
If you want those technologies, we have the hardware, software, and infrastructure.
In other words, we're going to eat the market.
In fact, right now ChatGPT is calling the shots and Nvidia is making the money.
Because the processors that Open AI utilizes are Nvidia's GPUs.
So, it remains to be seen how long Nvidia will be able to run a viable company.
Google's Bard was released to the first batch of users on the 21st local time, and let's see how it compares to Microsoft Bean and ChatGPT.
This is not a Google search engine, but you have to go to the Bard site and ask a current question.
If you ask a question, it will give you the same answer as the PT service.
Right now, it's only available for US and UK applicants.
In Korea, you have to bypass IP to use it.
What's also unusual is that when you ask a question, it doesn't just give you one answer, it gives you three drafts of the answer.
Google has emphasized this before.
No.
1 write answer.
You don't want just one answer, so that's the whole point of Bard, to have this diversity, but the problem is that people who tried it felt that the differences between the drafts were too small.
And the other thing is, after you get a bunch of search results, there's a button at the bottom that says, Google IT.
And if you press that, it'll take you to the Google search engine for the same question.
I don't know if that's a good thing or a bad thing.
In fact, I don't know why we need a chatbot if we can just press a button.
And Google's Bard is also giving credit where credit is due.
It is still an early beta version, so it may continue to change, but if you collect evaluations from foreign countries, the source marking is less than Bing.
They also say that Bing provides more correct answers, even when it comes to outdated information.
Google is emphasizing that it's not about replacing search, but about securing search, such as getting ideas and drafting posts.
Why are they holding back?
There's no rush to launch, and no release date has been set.
Google's Bard has been criticized in the press for being too cautious with its answers.
Even the promotional screens say that Bard is still experimental and emphasize that it doesn't always give the right answer.
It's these conversations that have gotten people interested, and it's been pointed out that Google Bars can be boring.
Google says they're trying to prevent this, but the reaction from journalists who pointed out these issues was pretty critical.
So, the overall rating is worse than Bing.
It's worse than the book 'Zippity', that's the assessment at this point.
Okay, but it's weird because it's based on Google's massive language model, Lambda.
But it's actually been known to do better than that.
We've had Google employees talk to Lambda before, and they've gotten fired because it's self-aware, and it's very good at making up words, and it's very good at making weird noises, and it's very constrained.
No, they're already behind Microsoft, so what are they thinking?
Now, Microsoft's Bing, on the other hand, is a rampage.
They've even built image creation into the blank chat menu.
I still haven't gotten around to using it.
And Microsoft's "Edge" browser is also adding image creation to the sidebar in a blank menu.
So, to recap the TechCrunch news report, it's called Bing Image Creator, powered by Open AI's Dali.
They say they're using the latest version of Dali, but they don't say which version.
Now, it's slowly rolling out to users in Bing Preview.
Okay, so even when it's available, they say it's available in blank creative mode, creative mode.
Okay, and it says that the bottom left corner of the generated image will have a blank logo instead of an "otherwise" mark.
Okay, so here we are with a Google Bard, and it's not getting very good reviews.
Is Google really that bad?
Let's see.
Yes, this is how I delivered the future news in the month of March, but because there were so many AI news, I only delivered them together.
Actually, there's other stuff.
I'll deliver those separately.
And we'll have a bunch of big things coming up next month, and we'll see you on Saturday of the last week.

 

 

 

반응형
LIST
Comments