반업주부의 일상 배움사

GPT-4 프롬프트 엔지니어링: 이것이 중요한 이유! :: ChatGPT 정리 본문

IT 인터넷/일반

GPT-4 프롬프트 엔지니어링: 이것이 중요한 이유! :: ChatGPT 정리

Banjubu 2023. 3. 24. 08:22
반응형


> English Summary

> English Full Text

 

[ 요약 ]

GPT의 컨텍스트 창은 ChatGPT의 4000 토큰에서 가장 큰 버전의 8000 또는 32000 토큰으로 두 배로 늘어났으며, 이는 AI 애플리케이션에 더 많은 가능성을 열어줄 수 있습니다.
컨텍스트 길이는 모델이 액세스 할 수 있는 토큰을 제한하는 방식으로 작동하며 입력 및 출력이 창 내에 있으면 유효합니다.
컨텍스트 윈도우와 관련하여 약간의 혼란이 있었지만, 이제 개선된 기능을 통해 파이썬 스크립트를 사용하여 오디오 파일을 트랜스크립션하여 기사나 블로그 게시물로 변환할 수 있습니다.
또한 개발자는 이 개선 사항을 활용하여 더욱 지능적이고 정교한 AI 모델을 구축할 수 있습니다.

GPT-4를 사용하여 콘텐츠 생성을 준비하기 위해 취한 단계를 공유합니다.
GPT-4를 사용하여 비디오에서 말하는 내용을 정확하게 텍스트로 변환한 다음, 이전 기사를 복사하여 형식과 스타일을 올바르게 맞췄습니다.
또한 맥락을 파악하기 위해 미드저니의 새로운 모델 버전 5에 대한 정보를 수집했습니다.
이제 "GPT-4 플러스 미드"라는 제목의 자세한 기사를 작성하려고 합니다.

GPT-4에서 생성된 콘텐츠가 본질적으로 자신들만의 콘텐츠임을 발견했지만 완전히 만족스럽지 않았고 GPT-4 프라이밍에 대해 더 많은 내용을 담고 싶었습니다.
이 글은 최적의 프롬프트 생성을 위한 GPT-4 프라이밍에 대한 귀중한 인사이트를 제공했습니다.
콜투액션은 기사를 읽고 GPT-4 프라이밍에 대해 알아본 후 이를 활용하여 매력적인 콘텐츠를 제작하는 것입니다.

컨텍스트 윈도우와 관련하여 약간의 혼란이 있었지만, 이제 개선된 기능을 통해 파이썬 스크립트를 사용하여 오디오 파일을 트랜스크립션하여 기사나 블로그 게시물로 변환할 수 있습니다.
또한 개발자는 이 개선 사항을 활용하여 더욱 지능적이고 정교한 AI 모델을 구축할 수 있습니다.

마지막으로 AI 감지 도구를 적용하여 기사가 AI에 의해 생성되었는지 여부를 판단하는 방법도 알려드립니다.

 

 

반응형

 

 


GPT-4 Prompt Engineering: Why This Is a BIG Deal!
https://www.youtube.com/watch?v=WuRPFzx6Ti0 

 

 






[ 한글 전체 ]

ChatGPT의 컨텍스트 창은 4000 토큰에서 이제 8,000 토큰, 심지어 가장 큰 버전에서는 32,000 토큰까지 두 배로 늘어났습니다.
왜 이것이 중요한 일이라고 생각하는지, 그리고 어떻게 더 많은 가능성을 열어주는지에 대해 이야기하고 싶습니다.
이 개선 사항을 활용할 수 있는 몇 가지 방법을 보여드리겠습니다.
첫째, 컨텍스트 길이 또는 창에 대해 가끔 혼동이 있을 수 있습니다.
이 문제를 빠르게 해결하고 제가 의미하는 바를 조금 보여드리겠습니다.
시작하겠습니다.
"따라서 천 개의 토큰은 플러스 또는 마이너스 약 750단어라고 말할 수 있습니다.
ChatGPT에서 4,000 토큰의 창에서 8,000 토큰으로 변경된 GPT4 버전도 여기에서 확인할 수 있습니다.
32,000개 버전도 있으며, 보시다시피 ChatGPT에서는 약 3,000개 단어, 32,000개 버전에서는 25,000개 단어로 변환됩니다.
그렇다면 컨텍스트 창 또는 컨텍스트 길이는 실제로 어떻게 작동할까요?
자세히 살펴보겠습니다.
이쪽으로 가보면..."
이제 조금 더 확대해 보겠습니다.
보시다시피, 4,000개의 토큰으로 TPT 채팅을 하고 있습니다.
여기에도 동일한 32개의 케이블이 있고 4,000개의 토큰을 넣었습니다.
위쪽에는 인공지능에 관한 제 유튜브 채널을 넣었습니다.
저는 두 곳 모두에 그렇게 합니다.
여기 아래로 내려가서 채팅에 gbt 또는 gpt4를 입력하고 내 YouTube 채널 이름이 무엇인지 물어보면 모델이 이 창을 들여다볼 수 있습니다.
4K 또는 4,000 미만이기 때문에 여전히 모든 컨텍스트에 액세스할 수 있습니다.
토큰을 사용하므로 여전히 내 YouTube 채널이 AI에 관한 것임을 이해할 수 있습니다.
여기에 6,000개의 토큰을 추가한다고 가정하면 어떻게 될까요?
이제 여기에도 6,000개의 토큰이 있고 여기에도 같은 토큰이 있겠죠?
하지만 이제 이 부분이 토큰 창 밖에서 끝나는 것을 볼 수 있습니다.
제 유튜브 채널은 AI에 관한 것인데, ChatGPD는 4,000개의 토큰만 처리할 수 있기 때문에 토큰 창 밖에서 끝납니다.
따라서 "내...가 뭐야?"라고 물으면
YouTube 채널 이름은 32k 버전이 있는 경우 "YouTube 채널에 대한 정보를 찾을 수 없습니다"라고만 응답합니다.
이것은 여전히 컨텍스트 창 내에 있으므로 정답을 얻을 수 있습니다.
혼동이 있었기 때문에 이 부분을 보여드리고자 합니다.
또한 입력과 출력은 창 안에 있다는 것을 기억하세요.
10,000개의 토큰을 입력하고 10,000개를 답으로 받았다면 이는 유효한 것입니다.
"컨텍스트 창에 20,000개의 토큰을 추가했죠?
이제 컨텍스트 창이 어떻게 작동하는지에 대한 정보를 얻으셨을 겁니다.
이제 몇 가지 사용 사례를 자세히 살펴보겠습니다.
가장 먼저 하고 싶은 일은 GPT-4의 큰 컨텍스트 창을 사용하여 최신 YouTube 동영상을 블로그 게시물이나 기사로 전환하는 것입니다.
어떻게 하는지 보여드리겠습니다.
첫 번째 단계는 YouTube 동영상을 MP3 파일로 변환하여 오디오만 확보하는 것이었습니다.
그런 다음..."로 넘어갔습니다."
이것은 제가 만든 매우 간단한 Python 스크립트입니다.
트랜스크라이브라는 API를 열고 제 파일 이름 "here.mp3"를 트랜스크라이브합니다.
이 스크립트를 실행하면 동영상에서 제가 말한 모든 단어를 텍스트 형식으로 가져옵니다.
이제 이 스크립트를 실행하고 완료될 때까지 기다립니다.
완료하는 데 약 45초가 걸렸습니다.
보시다시피 이제 동영상에서 제가 말한 모든 단어가 포함된 텍스트 파일이 생겼습니다.
이것은 GPT-4에서 사용하기에 완벽합니다.
두 번째 단계로 넘어가겠습니다.
수정된 텍스트: 다음 단계는 제 웹사이트로 이동하여 이전에 작성한 유사한 글의 모든 단어를 복사하는 것입니다.
이렇게 하면 형식과 스타일을 제대로 맞출 수 있습니다.
모든 내용을 복사하여 Word 문서에 붙여넣기만 하면 됩니다.
그런 다음 마지막 단계로 넘어가서 Mid Journey의 홈페이지로 이동합니다.
기사나 블로그 게시물에 대한 컨텍스트가 필요할 것 같아서 최신 모델 버전 5에 대한 정보를 복사하겠습니다.
기본적으로 필요한 것은 이것뿐입니다.
이제 시작하겠습니다.
GPT4로 넘어갔기 때문에 여러분의 시간을 낭비하고 싶지 않았습니다.
여러분이 읽을 수 있는 몇 가지 정보로 시작하여 준비했습니다.
그런 다음 형식이 올바른지 확인하기 위해 이전에 작성했던 글 전체를 붙여 넣었습니다.
이것이 전체 글입니다.
읽으셨다면 "빨간색"으로 응답해 주세요.
이렇게 하면 GPT4가 입력한 모든 것에 대해 큰 출력을 제공하면 일부 토큰을 잃게 되므로 토큰을 절약하는 데 도움이 됩니다.
이것은 토큰을 절약하는 방법입니다.
다음은 주요 여정 5에 대한 몇 가지 정보입니다.
이 단계에서는 빨간색으로 되돌아오게 됩니다.
또한 제가 말한 모든 단어를 비디오로 전사하여 GPT-4에 입력했습니다.
대본이 상당히 길지만 소프트웨어는 정확하게 읽을 수있었습니다.
앞으로는 읽은 정보를 바탕으로 "GPT-4 플러스 미드"라는 제목의 자세한 기사를 작성해야하는 프롬프트를 만들려고합니다.
여정 V5: 사진의 미래 - 이 글에서는 이전에 공유한 정보를 통합하여 사진의 미래에 대해 자세히 설명할 것입니다.
제목을 변경하고 자막을 추가했으며, 제가 생각하는 적절한 소개를 추가했습니다.
섹션 1에서는 GPT-4와 미디안의 파트너십을 살펴보고, 그 결과 V5가 합류하여 두 회사의 기술력이 결합된 모습을 보여드립니다.
또한 이 파트너십이 사진 산업에 미치는 영향에 대해서도 살펴봅니다.
결론을 내리고 기사를 읽어보니 꽤 괜찮은 기사였다는 생각이 들었습니다.
하지만 위의 컨텍스트 창만 활용하고 기초 모델을 많이 활용하지 않았다는 것을 알았습니다.
따라서 AI나 GPT-4가 생성한 콘텐츠는 제가 영상을 만들었기 때문에 사실상 제 콘텐츠라고 할 수 있습니다.
하지만 첫 번째 섹션에 완전히 만족하지 못해서 GPT-4 프라이밍에 대한 내용을 더 추가하고 싶습니다.
해당 섹션에서 이에 대해 더 자세히 설명해 주시겠어요?
GPT-4 프라이밍에 대해 더 자세히 알고 싶어서 기사를 읽었습니다.
이 섹션에서는 최적의 프롬프트 생성을 위해 GPT-4를 프라이밍하는 방법에 대해 자세히 다루고 있습니다.
원하시면 읽어보실 수 있도록 이 섹션에 대한 링크를 남겨두겠습니다.
문맥 이해 구축, 세부적인 프롬프트 제작, 반복적인 개선의 중요성을 강조했는데, 이 모든 것이 매우 중요합니다.
저는 이 모든 내용을 다 읽었지만 제 필사본에서 모든 것을 가져왔기 때문에 아무것도 바꿀 필요가 없었습니다.
비디오에서 제가 가진 지식과 기술을 바탕으로 작업했는데 놀랍게도 꽤 괜찮은 결과물이 나왔어요.
저는 제가 배운 것에 만족했습니다.
하지만 결론을 더 보강하고 싶었습니다.
그래서 처음에는 상당히 얇았던 1인칭 시점으로 의도적인 결론을 썼습니다.
이를 위해 주제에 대한 심층적인 분석을 제공하는 4~5개 문단으로 구성된 결론을 생각해냈습니다.
약간의 수정이 있었지만 대부분의 내용은 그대로 유지했습니다.
기본적으로 그게 다였습니다.
저는 현재 중간 단계에 있으며 이 분야의 기술을 계속 향상시키고 싶습니다.
몇 가지 이미지를 만들어서 동영상에 추가했습니다.
결과가 어떻게 나왔는지 살펴 보겠습니다.
보시다시피 인트로와 맥락적 이해 구축에 대한 섹션을 그대로 유지한 다음 직접 만든 예제와 이미지를 추가했습니다.
아주 쉽게 만들 수 있었고 심도 있는 결론을 도출할 수 있었습니다.
이 글에 20~30분 정도 소요되었는데, 제가 전달하고자 하는 모든 내용을 다룬 정말 좋은 글이었다고 말씀드리고 싶습니다.
이 기사의 가장 큰 장점은 시청자가 주제를 더 명확하게 이해할 수 있다는 것입니다.
"축소된 보기에서 모든 연락처를 여기에 추가할 수 있습니다.
채팅에서는 이전 컨텍스트를 기억하지 못하기 때문에 이 작업을 수행할 수 없습니다.
그래서 이 기능이 매우 강력하다고 생각합니다.
많은 정보를 추가하고 컨텍스트 창을 활용할 수 있습니다.
이 기능을 사용하면 기초 모델에서 아무것도 사용할 필요가 없습니다.
몇 가지 작은 것만으로도 충분합니다."
이 기사는 분명히 AI에 의해 생성된 것이 아닙니다.
파운데이션 모델에서 생성되지는 않았지만 콘텐츠는 여전히 AI가 생성한 것으로 보이지 않습니다.
재미삼아 AI 탐지 도구를 통해 실행해 보겠습니다.
기사 전체를 OpenAI의 텍스트 분류기에 붙여넣었습니다.
분류기에 따르면 이 텍스트는 AI에 의해 생성되었을 가능성이 매우 낮은 것으로 간주됩니다.
따라서 AI가 작성하지 않았다는 사실이 가장 좋은 점수를 받을 수 있다고 생각합니다.
하지만 원본 기사에 약간의 맥락을 추가했습니다.
기본적으로 저는 기초 모델의 어떤 것도 사용하지 않았는데, 이것이 훌륭한 활용 사례라고 생각합니다.
한 가지 더 보여드리고 싶지만 동영상을 너무 길게 끌고 싶지 않습니다.
하지만 관심이 있으시다면 멤버십에 대해 더 자세히 설명해드릴 수도 있습니다.
그럼 제가 보여드리고 싶은 사용 사례를 하나 더 살펴보겠습니다.
GPT-4의 압축된 연구 논문에서 예제 등을 포함한 모든 텍스트를 복사하여 이 문서에 붙여넣었습니다.
GPT-4로 전환했고, 여러분이 읽을 수 있는 정보가 있습니다.
그래서 이 모든 텍스트를 붙여 넣었습니다.
하지만 보시다시피 한 가지 트릭을 보여드리고 싶습니다.
여기서는 텍스트를 두 부분으로 나누었습니다.
이는 토큰 문제가 아니라 채팅의 창 문제입니다.
모든 토큰 토큰을 붙여넣을 수 있지만 창에는 어느 정도의 공간이 필요합니다.
그래서 텍스트를 분할하여 다른 순서로 붙여 넣었습니다.
저는 그냥 대답하고 읽은 다음 후반부를 붙여넣었습니다.
"이제 GPTT 압축 기술 보고서의 모든 단어가 완성되었습니다.
이제 위의 내용에 대한 15개 문항이 정해진 퀴즈 테스트를 만들어 주세요.
이 시험은 머신러닝을 공부하는 학생들을 위한 시험이어야 합니다.
그래서 GPT4에서 어려운 문제를 만들 것으로 예상합니다.
몇 가지 문제를 간단히 살펴봅시다.
이 시험은 머신러닝을 전공하는 학생들을 위해 고안되었다는 점을 기억하세요.
GPT4의 결과물에는 어떤 편견과 한계가 있을 수 있나요?
오픈 AI는 안전성을 개선하기 위해 어떻게 노력했나요?"
텍스트의 문법과 정렬을 다음과 같이 수정했습니다."이전 모델과 비교하여 GPT4의 정렬과 개선 사항을 설명하는 것은 훈련 과정의 두 가지 주요 부분, 즉 사전 훈련과 인간의 피드백을 통한 강화 학습으로 나눌 수 있습니다.
이 주제는 다소 어려울 수 있으므로 초등학교 4학년을 위해 간단하게 설명해 보겠습니다.
이들에게 적합한 퀴즈를 만들려면 5개의 질문만 있으면 됩니다.
어떻게 되는지 봅시다."
제공된 콘텐츠는 상당히 고급 정보이므로 어려울 수 있지만, 본문과 관련성을 유지하면서 문제를 단순화하기 위해 최선을 다하겠습니다.
그렇다면 지금 이야기하고 있는 AI 언어 모델의 이름은 무엇인가요?
GPT2-345입니다.
좋네요.
GPT4는 어떤 기능을 하나요?
사람들이 요리하고, 자동차를 운전하고, 비디오 게임을 하고, 질문에 답하고, 정보를 제공하는 데 도움을 줄 수 있습니다.
GPT는 완벽한가요?
아니요, 약간의 오류가 발생할 수 있습니다.
스포츠에 대해서만 알 수 있나요?
아니요, 스포츠에만 국한되지 않습니다.
좋은 질문이었어요.
GBT4가 도와주지 말아야 할 한 가지는 무엇인가요?
다른 사람에게 해를 끼칠 수 있는 결정을 내리는 것입니다.
숙제를 하거나, 무기를 만들거나, 새로운 단어를 배우는 친구들...
친구를 사귀는 데 도움이 될까요?
조금 이상하긴 하지만 답안 C가 맞다고 생각해요.
매우 건전한 내용이지만, 이 큰 콘텐츠 창을 어떻게 멋진 콘텐츠로 바꿀 수 있는지 보여줬다고 생각합니다.
하지만 이것은 빙산의 일각에 불과합니다.
나중에 이 부분에 대해 더 자세히 살펴볼 예정인데, 좋은 아이디어가 있지만 아직 스포일러는 하지 않겠습니다.
이번 영상은 여기까지입니다.
이 동영상을 통해 새로운 컨텍스트 창 길이를 활용하는 방법에 대한 영감을 얻으셨기를 바랍니다.
더 자세히 알아보고 싶으시다면 설명에 있는 링크를 통해 제 멤버십에 대한 링크를 확인하시고, 앞으로 이에 대한 동영상을 몇 개 더 올려드릴 예정입니다.
또한 이 영상이 재미있으셨다면 여기에서 이 영상도 확인해 보세요.
항상 그렇듯이 좋은 하루 되시고 다음 영상에서 뵙겠습니다.

 

 

SMALL




[ English Summary ]

GPT's context window has doubled from 4000 tokens in ChatGPT to 8000 or 32000 tokens in the largest version, which can open up more possibilities for AI applications.
The context length works by limiting the tokens that a model can access and is valid as long as the input and output are within the window.
There was some confusion around context windows, but with the improvements, you can now use Python scripts to transcribe audio files and turn them into articles or blog posts.
Developers can also leverage this improvement to build more intelligent and sophisticated AI models.

Share the steps you took to prepare for content creation using GPT-4.
We used GPT-4 to transcribe exactly what was being said in the video, then copied the previous article to get the format and style right.
We also gathered information about Midjourney's new model, version 5, for context.
Now you want to write an in-depth article titled "GPT-4 Plus Mead".

You found that the content generated by GPT-4 was essentially their own, but you weren't completely satisfied and wanted to include more about GPT-4 priming.
This article provided valuable insight into GPT-4 priming for optimal prompt generation.
The call to action is to read the article, learn about GPT-4 priming, and then utilize it to create engaging content.

There was some confusion around the context window, but with the improvements, you can now use a Python script to transcribe an audio file and turn it into an article or blog post.
Developers can also leverage this improvement to build more intelligent and sophisticated AI models.

Finally, we'll also show you how to apply AI detection tools to determine whether an article was generated by AI.

 

 

 

[ English Full Text ]

The context window of GPT has just doubled from 4000 tokens in ChatGPT to now 8,000 or even 32,000 tokens in the biggest version.
I want to talk about why I think this is a big deal and how it opens up more possibilities.
I will show you some ways we can take advantage of this improvement.
Firstly, there is confusion at times about the context length or window.
I will quickly address this and show you a bit of what I mean.
Let's get started.
"So, we can say that a thousand tokens is approximately 750 words, plus or minus.
You can also see here the changes from the Chat GPT, where we went from a window of 4,000 tokens to 8,000 tokens in one version of GPT4.
There is also a 32k version available, and as you can see, that translates to about 3,000 words in the Chat GPT and 25,000 words in the 32k version.
So, how does the context window or context length actually work?
Let's take a closer look.
If we head over here, we can see..."
Now, let me zoom in a bit.
As you can see, we have TPT chat with 4,000 tokens.
We have the same 32 cables here and we put 4,000 tokens in it.
On the top, I put my YouTube channel, which is all about AI.
I do that on both places.
If I go down here and type in chat for gbt or gpt4 and ask what my YouTube channel name is, the model can look into this window.
It still has access to every context because it's under 4K or 4,000.
Tokens, so it can still understand that my YouTube channel is all about AI.
What happens if we move on to, let's say, we add 6,000 tokens here?
Now, we have 6,000 tokens here, and we have the same here, right?
But now you can see that this part ends up outside the token window.
My YouTube channel is all about AI, and it ends up outside the token window because ChatGPD can only handle 4,000 tokens.
So, when we ask, "What is my...?"
The YouTube channel name will only reply with "I can't find any information about any YouTube channel" if we have the 32k version.
This is still well within the context window, so we can obtain the correct answer.
I want to show you this because there has been confusion about it.
Also, remember that the input and output are within the window.
If you input 10,000 tokens and receive 10,000 back as an answer, then it is valid.
"Context window, then you added 20,000 tokens, right?
So, I think this gave you some information about how the context window works.
Now, we're going to take a closer look at some use cases.
The first thing I want to do is to turn my latest YouTube video into a blog post or an article by using the big context window we have in GPT-4.
I'll show you how I do this.
The first step was to convert my YouTube video into an MP3 file, so we only have the audio.
Then, I went over to..."
This is a very simple Python script that I have created.
It opens an API called Transcribe and transcribes my file name "here.mp3".
When I run this script, I get every word I said in the video in text form.
I will now run this script and wait for it to finish.
It took about 45 seconds to complete.
As you can see, we now have a text file with every word I said in the video.
This is perfect for using in GPT-4.
Let's move on to the second step.
The corrected text:The next step is to head over to my website and copy every word from a similar article I have written before.
This way, I can get the format and style right.
Just copy all of it and paste it into a Word document.
Then, we can move onto the final step which is heading over to Mid Journey's homepage.
I'll copy some information about their newest model version 5 because I think we need some context for the article or blog post.
And that's basically all we need.
Now let's get started.
I handed over to GPT4, so I did not want to waste your time.
I prepared this by starting with some information for you to read.
Then, I pasted in the whole previous article I had written to ensure that the format was correct.
That was the entire article.
Please respond with "red" if you have read it.
This helps us save tokens because if GPT4 gives us a large output for everything we input, we will lose some tokens.
This is a way to conserve tokens.
Here is some information about Major Journey 5.
We receive a red back during this stage.
In addition, I have transcribed all my spoken words in a video and fed them into GPT-4.
Even though the transcript is quite lengthy, the software was able to read it accurately.
Moving forward, I intend to create a prompt that will require you to write a detailed article titled "GPT-4 Plus Mid" based on the information you have read.
Journey V5: The Future of Photography - In this article, I will provide details about the future of photography, incorporating information shared with me previously.
The title has been changed, with subtitles added, and an introduction that I believe is suitable.
In Section 1, we explore the partnership between GPT-4 and Midian, resulting in the joining of V5 and showcasing their combined technological prowess.
Additionally, we examine the impact of this partnership on the photography industry.
We reached our conclusion, and upon reading it, I found that it was quite good.
However, I noticed that it only made use of the context window above and did not utilize much from the foundation model.
Therefore, I can say that the content generated by the AI or GPT-4 is essentially my own since I created the video.
However, I was not completely satisfied with section one and would like to include more about GPT-4 priming.
Can you please elaborate further on that in the section?
I read the article because I wanted to learn more about GPT-4 priming.
It did a really good job in this section, going deep into priming GPT-4 for optimal prompt generation.
I will leave a link to this section so you can read it if you want to.
It emphasized the importance of building contextual understanding, crafting detailed prompts, and iterative refinement, all of which are crucial.
I read through all of this and didn't have to change anything because it took everything from my transcription.
From the video, I built upon my knowledge and skills and surprisingly, it turned out pretty good.
I felt satisfied with what I had learned.
However, I wanted to enhance my conclusion further.
So, I wrote a purposed conclusion in the first-person view, which was initially quite thin.
To do this, I came up with a four to five-paragraph conclusion that provided an in-depth analysis of the topic.
Although I did make some small adjustments, I retained most of the content.
That was basically it.
I am currently on a mid-journey, and I hope to continue improving my skills in this area.
I created some images and added them to my video.
Let's take a look at how it turned out.
As you can see, I kept the intro and the section about building contextual understanding, and then I added some self-made examples and images.
It was quite easy to do and we ended up with an in-depth conclusion.
I would say that I spent around 20-30 minutes on this, and I have to say it was a really good article that covered everything I wanted to convey.
The big advantage of this is that you, the viewer, can now have a clearer understanding of the topic.
"You can add all your contacts here in the Zoomed out view.
In chat, you can never do this as it will not remember the previous context.
This is why I believe this feature is so powerful.
You can add a lot of information and take advantage of the context window.
With this, you don't need to use anything from the foundation model.
Just a few small things can suffice."
That article is clearly not generated by AI.
Although it was not generated from the Foundation model, the content still does not seem AI-generated.
Let's run it through an AI detection tool for fun.
I've pasted the entire article into OpenAI's text classifier.
According to the classifier, the text is considered very unlikely to be generated by AI.
Therefore, I think the best score we can get is the fact that it was not written by AI.
However, I did add some context to the original article.
Basically, I did not use anything from the foundation model, which I believe is a great use case for this.
I wanted to show you one more, but I don't want to drag the video on for too long.
However, I may do more on my membership if you're interested.
So, let's take a look at one more use case that I want to show you.
I copied all of the text from the compressed research paper of GPT-4, including the examples and everything else, and pasted it here in this document.
I switched over to GPT-4, and I have some information for you to read.
So, I pasted in all of this text.
But, as you can see, I want to show you a trick.
Here, I split the text into two parts.
That's not a token issue, but more of a window issue in chat.
You can paste in all the token tokens, but the window needs some kind of space.
Hence, I split the text and pasted it into different sequences.
I just answered it, read it, and then pasted the second half.
"So now we have every single word in the GPTT compressed technical report.
Right now, I want you to create a quiz test with fixed 15 questions about the content above.
The test should be for students in machine learning.
So, I expect GPT4 to create some difficult questions.
Let's just take a quick look at some of the questions.
Remember, this test was designed for students in machine learning.
What are some biases and limitations that GPT4 may have in its outputs?
How has Open AI worked to improve safety?"
I have fixed the grammar and alignment of the text as follows:"Explaining the alignment and improvements of GPT-4 compared to previous models can be divided into two main parts of its training process: pre-training and reinforcement learning with human feedback.
This topic may seem advanced, so let's simplify it for fourth graders.
We only need five questions to create a suitable quiz for them.
Let's see how it goes."
The provided content might be challenging as the information is quite advanced; however, I will do my best to simplify the questions while keeping them relevant to the text.
So, what is the name of the AI language model we are talking about?
It is GPT2-345.
That's good.
What does GPT4 do?
It can help people cook, drive cars, play video games, answer questions, and give information.
Is GPT perfect?
No, it can make some errors.
Does it only know about sports?
No, it is not limited to sports.
That was a good one.
What is one thing that GBT4 should not help with?
Making decisions that could harm others.
Friends doing homework, creating weapons, and learning new words...
could it help you make friends?
That was a bit strange, but I think answer C is correct.
This was very wholesome, but I think it showed just how we can take this large content window and turn it into something cool.
However, this is just scratching the surface; it's just the tip of the iceberg.
I'm going to be exploring more of this later; I have a good idea, but I'm not going to spoil it yet.
So I think that's it for this one.
I hope this video gave you some inspiration on how you can take advantage of the new context window length.
If you want to dive deeper into this, check out the link in the description to my membership, where I'll be doing some videos on this coming up.
Also, check out this video here if you enjoyed this one.
As always, have a great day, and I'll see you in the next one.

 

 

 

반응형
LIST
Comments