반업주부의 일상 배움사
ChatGPT 플러그인 살펴보기 - OpenAI의 새로운 게임 체인저 :: ChatGPT 정리 본문
[ 요약 ]
Open AI는 언어 모델이 최신 정보에 액세스하고 계산을 실행하거나 타사 서비스를 사용할 수 있도록 특별히 설계된 도구인 Chat GPT 플러그인을 발표했습니다.
플러그인 개발자와 Chat GPT 사용자, 그리고 플러그인을 제품에 통합하고자 하는 API 사용자를 대상으로 알파 기간이 진행 중입니다.
이번 발표는 AI 봇과 채팅하고 정보를 얻을 수 있는 고립된 애플리케이션을 넘어 Chat GPT의 기능을 확장한 것입니다.
사용자는 블로그 페이지에서 '플러그인 대기자 명단 가입하기' 버튼을 클릭하여 대기자 명단에 참여할 수 있습니다.
OpenAI는 플러그인 개발자가 Chat GPT에 연결하여 지능형 API 호출자 기능을 사용할 수 있도록 하여 기능을 확장했습니다.
개발자는 스포츠 점수, 주가, 최신 뉴스, 재무 데이터, 회사 문서, 개인 메모 등과 같은 실시간 정보를 검색할 수 있는 플러그인을 만들 수 있습니다.
AI 모델은 주어진 API 사양과 자연어를 기반으로 지능적으로 작동합니다.
사용자는 이러한 플러그인을 사용하여 챗봇을 통해 항공편을 예약하거나 음식을 주문하는 등의 작업을 수행할 수 있습니다.
플러그인을 만들려면 개발자는 엔드포인트에 대한 메타데이터와 OpenAI 사양이 포함된 JSON 형식의 매니페스트 파일을 생성하는 것부터 시작해야 합니다.
JSON 파일의 길이를 최소화하기 위해 최소한의 매개변수로 하나 또는 두 개의 엔드포인트를 노출하는 것이 좋습니다.
플러그인 설명, API 요청 및 응답은 ChatGPT와의 대화에 삽입되며 모델의 컨텍스트 제한에 포함됩니다.
플러그인은 기본적으로 사용되지 않으므로 ChatGPT UI에 플러그인을 등록한 후 사용자가 수동으로 활성화해야 합니다.
알파 단계에서는 최대 15명의 추가 사용자와 플러그인을 공유할 수 있지만, 개발자가 아닌 사용자는 검증된 플러그인만 설치할 수 있습니다.
인증은 클라이언트 ID, 비밀 키 또는 API 자격 증명을 사용하는 OAuth를 통해 이루어질 수 있습니다.
향후 업데이트에서는 인공 지능 서비스 레이어 위에 유용하고 인기 있는 플러그인을 검색할 수 있는 앱 스토어가 추가될 예정입니다.
사용자가 대화를 시작할 때사용자가 플러그인과 대화를 시작하면 Open your AI와의 대화는 플러그인에 대한 간략한 설명과 함께 플러그인의 엔드포인트 및 예제를 제공합니다.
관련 엔드포인트와 질문이 사용자가 질문한 예시인 경우, 모델은 플러그인에서 API 호출을 사용하여 응답할 수 있습니다.
텍스트와 같은 데이터 제출이 포함된 게시물 요청에 대해 Open AI가 제출을 수락하는 데이터 입력이 포함된 경우, 개발자는 다른 입력에 사용자 Open AI 확인 플로우를 포함해야 합니다.
사용자가 정의한 인증 방법을 통해 ChatGPT를 API에 연결하려면 문서화 목적으로 OpenAI 사양을 작성하세요.
이 사양은 엔드포인트 매개변수 설명당 200자를 넘지 않아야 합니다.
OpenAI는 Chat GPT의 기능을 AI 에이전트를 넘어 실제 세계에서 사용자를 대신하여 작업을 수행할 수 있도록 확장하는 Chat GPT 플러그인을 발표했습니다.
플러그인에는 채팅 확장 및 API 엔드포인트가 포함됩니다.
OpenAI는 시간이 지남에 따라 더 큰 규모의 액세스를 출시할 계획입니다.
예를 들어, 사용자가 플러그인 스토어에서 제공하는 링크를 통해 레스토랑 추천, 레시피, 칼로리 계산을 요청하고 Instacart에서 식재료를 주문할 수 있는 식사 계획에 Chat GPT 펠리컨을 사용하는 방법을 살펴볼 수 있습니다.
그러나 이러한 언어 모델 플러그인은 학습 데이터로만 학습할 수 있고 오래된 정보가 있을 수 있으므로 제한적입니다.
오늘 국세청이 공개한 언어 모델 플러그인에 대한 내용을 자세히 살펴보세요.
OpenAI는 시스템 보안을 개선하기 위해 연구 액세스 프로그램과 "evalsnip"이라는 평가 프레임워크를 보유하고 있습니다.
이들은 GPT 사용자가 웹을 탐색할 수 있는 브라우징 기능을 개발하여 훈련 말뭉치 외에 토론할 수 있는 콘텐츠의 양을 확대했습니다.
ChatGPT는 검색을 위해 Bing API와 텍스트 기반 웹 브라우저를 사용하여 검색 결과를 넘어 웹 사이트를 탐색하고 클릭 가능한 인용으로 지원되는 정보에 입각한 답변을 제공합니다.
그러나 현재 구현은 투박하고 실시간 정보를 지속적으로 크롤링하는 대신 그 자리에서 물리적으로 웹을 탐색하여 보다 효율적으로 사용할 수 있습니다.
정보를 게시하거나 푸시하지 않고 가져오기만 요청할 수 있도록 제한하여 안전성을 고려했습니다.검색 플러그인을 사용하면 Chat이 콘텐츠의 벡터 데이터베이스를 검색하여 최상의 결과를 Chat GPT에 추가할 수 있습니다.
개발자는 개인정보 보호를 위해 검색 플러그인에 승인된 콘텐츠만 추가해야 합니다.
OpenAI는 자체 플러그인을 개발 중이며, 타사 플러그인은 플러그인 스토어에서 사용할 수 있습니다.
타사 플러그인을 사용하려면 개발자가 API를 빌드하고 매니페스트 파일을 만들어야 합니다.
사용자는 활성화할 타사 플러그인을 선택할 수 있으며, 활성화된 플러그인에 대한 설명서가 대화 컨텍스트의 일부로 표시됩니다.
플러그인은 백엔드 API를 호출하기 위해 설계되었지만 곧 클라이언트 측 API도 호출할 수 있습니다.
플러그인 구축이 얼마나 쉬운지 보여드리기 위해 스토어에서 필요한 플러그인을 설치하여 간단한 식사 계획을 세우는 데 Chat GPT를 사용하겠습니다.
플러그인은 HTTP 서버, 해당 API를 설명하는 오픈 API 사양, 이름, 로고 URL, 연락처 이메일 주소 등의 메타데이터가 포함된 매니페스트 파일로 구성됩니다.
First Look at ChatGPT Plugins - OpenAI's New Gamechanger
https://www.youtube.com/watch?v=Zf_DQpj_NUA
#부수입100만원벌기 #온라인수익창출 #디지털노마드 #재택부업 #바이럴마케팅
https://www.jamongpick.com/23/34345
[ 한글 전체 ]
안녕하세요, Dave입니다.
방금 전, 몇 시간 전에 Open AI에서 중요한 발표가 있었는데요, 바로 Chat GBT 플러그인을 발표하는 것이었습니다.
아직 자세히 살펴볼 기회가 없어서 라이브 스트림을 통해 발표 내용을 살펴보고, 동영상과 데모를 시청하고, 실시간으로 댓글을 달면서 제 반응과 피드백을 공유하려고 합니다.
제 첫 번째 반응은 많은 것을 생각나게 한다는 것입니다.
앱 스토어는 2008년에 아이폰에 도입되었는데, 스티브 잡스는 개발자가 앱 스토어에서 사용할 수 있는 앱을 만들 수 있다고 발표했습니다.
이러한 앱은 기본적으로 사람들이 다운로드하여 다양하고 창의적인 방식으로 휴대폰의 기능을 확장할 수 있는 확장 프로그램이나 소프트웨어 프로그램과 같은 것이었습니다.
이로 인해 모바일 앱 개발에 큰 변화가 일어났고, 그 결과 Uber, Instagram 등 수많은 새로운 앱이 탄생했습니다.
이번 발표에 대해 자세히 살펴보겠습니다.
먼저 시간을 내어 몇 가지 내용을 실제로 읽어보고, 몇 가지 내용에 대해 댓글을 달고, 데모 동영상을 시청해 보도록 하겠습니다.
방금 Chat GPT 플러그인이 발표되었으며, Chat GPT에서 플러그인에 대한 초기 지원을 구현했습니다.
플러그인은 안전을 핵심 원칙으로 하여 언어 모델용으로 특별히 설계된 도구로, Chat GPT에서 최신 정보에 액세스하거나 계산을 실행하거나 타사 서비스를 사용할 수 있도록 도와줍니다.
즉, 이제 Chat GPT를 다른 서비스의 API에 연결한다는 것이 요점입니다.
다양한 앱이나 서비스를 사용할 수 있으므로 기본적으로 전체 앱 스토어를 넣거나 개발자와 회사가 생각할 수 있는 모든 작업을 수행하기 위해 Chachipsy의 기능을 현실 세계로 확장하는 것과 같습니다.
좀 더 자세히 살펴봅시다.
여기에는 반복적인 배포 철학 또는 그래프에 따라 실제 사용 현황을 연구할 수 있도록 Chat GPT에 플러그인을 점진적으로 출시하고 있다고 나와 있습니다.
Chat GPT 플러그인에 등록하고 싶다면 대기자 명단에 등록할 수 있습니다.
블로그를 클릭하면 "플러그인 대기자 명단에 참여하기"라는 버튼이 표시됩니다.
이 버튼을 클릭하면 가입하고 대기자 명단에 추가할 수 있는 페이지로 이동합니다.
다양한 잠재적 사용 사례를 제공하는 플러그인에 대한 사용자들의 요청이 Chat GBT 출시 이후 계속 이어지고 있습니다.
처음에는 소수의 사용자 그룹으로 시작하여 더 많은 지식을 쌓아가면서 점차적으로 액세스 권한을 확대할 계획입니다.
플러그인 개발자와 Chat GPT 사용자, 그리고 플러그인을 제품에 통합하고자 하는 API 사용자를 위해 알파 기간을 진행하고 있습니다.
"인간과 AI의 상호작용의 미래를 만들어갈 커뮤니티를 구축하게 되어 기쁩니다.
이것은 큰 일입니다!
GPT 채팅 이전에는 AI 봇과 채팅하고 정보를 얻을 수 있는 고립된 애플리케이션이었습니다.
하지만 GPT4의 대대적인 업그레이드를 통해 그 이상의 기능을 확장하고 있으며, 현재도 계속 출시 중입니다.
이는 다른 차원의 업그레이드로, GPT 채팅의 기능을 연결하고자 하는 모든 것으로 확장하는 것입니다.
기본적으로 대기자 명단에서 초대를 받은 플러그인 개발자는 누구나 사용할 수 있습니다."
"이제 우리의 문서가 그들의 문서가 됩니다.
여기를 클릭하면 개발자 섹션으로 이동하여 채팅 플러그인 리미티드 알파를 찾을 수 있습니다.
즉, Chat GPT가 지능적으로 API를 호출하여 스포츠 점수, 주가, 최신 뉴스, 재무 데이터, 회사 문서, 개인 메모 등과 같은 실시간 정보를 검색할 수 있는 플러그인을 개발할 수 있습니다.
이는 Chachi PT가 모든 지식 기반 정보를 아카이브할 수 있게 해주는 매우 매력적인 기능입니다."
개인 메모: 이제 질문은 토큰 길이는 어떨까요?
즉, 모델을 미세 조정하는 측면에서 Chachi PT가 프롬프트로 받아들일 수 있는 콘텐츠의 양이 제한되어 있습니다.
더 많은 정보를 받아들일 수 있기 때문에 반드시 제한되지는 않지만, 어떤 종류의 지식 기반, 옵션 및 기능이 있는지 보는 것은 흥미로울 것입니다.
또한 항공편 예약이나 음식 주문과 같이 사용자를 대신하여 작업을 수행하는 것에 대해서도 언급하고 있습니다.
큰 여행을 계획하고 있기 때문에 흥미로울 것 같습니다.
다음과 같이 수정할 것을 제안합니다."향후 6개월 동안 수십 개 국가를 방문해야 하는 일종의 여정이 있습니다.
상당히 번거롭지만, 차치 BT가 다른 여행사나 예약 서비스(예: 에어비앤비)에 연결할 수 있다면 정말 좋을 것 같습니다.
플러그인이 특정 기준에 따라 각 도시에서 제가 방문할 만한 레스토랑을 선택할 수 있다면 더 좋을 것 같습니다.
플러그인 개발자는 표준화된 매니페스트 파일로 하나 이상의 API 엔드포인트를 노출할 수 있습니다."
그리고 OpenAI 사양에 따르면 챗봇 PT가 파일을 소비하고 Divine API를 호출할 수 있는 기능을 갖춘 플러그인이 있습니다.
기본적으로 개발자가 챗봇 PT에 이러한 API 엔드포인트 또는 URL 호출에 대한 액세스 권한을 부여하면 챗봇이 해당 앱이나 서비스에서 직접 정보를 검색할 수 있다는 의미입니다.
AI 행위 모델은 지능형 API 호출자 역할을 하므로 무작위로 API를 호출하는 것이 아니라 주어진 API 사양과 자연어를 기반으로 무엇을 해야 하는지 알고 있습니다.
언어 설명: API는 언제 사용해야 하나요?
모델은 능동적으로 API를 호출하여 작업을 수행해야 합니다.
예를 들어 사용자가 파리에서 며칠 동안 머물 곳을 묻는다면 모델은 호텔 예약 플러그인 API를 호출하도록 선택할 수 있습니다.
이 모델은 API 응답을 수신하고 API 데이터와 자연어 기능을 결합하여 사용자 친화적인 답변을 생성합니다.
시간이 지남에 따라 시스템이 더욱 고급 사용 사례를 수용하도록 발전할 것으로 예상됩니다.
이것은 시작에 불과하며, 이 지능형 에이전트 위에 수천 또는 수백만 개의 다양한 서비스와 API 요청을 계층화하여 실제 세계에서 작업을 수행하고 작업을 수행할 수 있는 기능은 놀랍습니다.플러그인이란 무엇인가요?
개발자는 어떻게 플러그인을 만들까요?
플러그인을 구축하려면 엔드투엔드 흐름을 이해하는 것이 중요합니다.
첫 번째 단계는 매니페스트 파일을 생성하고 도메인에 잘 알려진 AI 플러그인을 호스팅하는 것입니다.
"JSON.
즉, 기본적으로 JSON 형식의 텍스트 파일인 JSON 파일입니다.
많은 웹 앱에서 사용하는 특정 형식입니다.
파일에는 이름, 로고 세부 정보, 필요한 인증, 노출하려는 엔드포인트에 대한 OpenAI 사양과 같은 메타데이터가 포함되어야 합니다.
이제 모델은 다양한 필드에 대한 자연어 설명을 제공하는 데 사용되는 OpenAI 설명 필드를 받게 됩니다.
처음에는 최소한의 매개 변수로 1~2개의 엔드포인트를 노출하여 JSON 파일의 길이를 최소화하는 것이 좋습니다."
플러그인 설명의 텍스트, API 요청, API 응답은 모두 Chai GPT와의 대화에 삽입됩니다.
이는 모델의 컨텍스트 제한에 위배됩니다.
따라서 반환되는 텍스트와 응답의 수를 제한하는 것이 좋습니다.
둘째, Chat GPT UI에서 플러그인을 등록합니다.
상단 드롭다운에서 플러그인 모델을 선택한 다음 플러그인, 플러그 및 저장을 선택합니다.
마지막으로 인증 후 플러그인을 설치합니다.
문장을 다음과 같이 바꾸면 더 좋을 것 같습니다."사용자가 플러그인을 사용하거나 직접 개발할 수 있다는 점이 흥미롭습니다.
메인 플러그인 UI에서 플러그인을 등록할 수 있어 일반 사용자에게는 편리합니다.
개발자는 동일한 UI를 사용하여 플러그인을 업로드할 수 있습니다.
인증은 클라이언트 ID, 클라이언트 비밀 키 또는 API를 OAuth에 제공함으로써 이루어질 수 있습니다.
이렇게 하면 기본적으로 오픈 AI가 로그인 자격 증명을 사용하여 API에 액세스할 수 있습니다."
"플러그인을 성공적으로 등록했으니 이제 사용자가 플러그인을 활성화할 차례입니다.
GPT UI 채팅은 기본적으로 플러그인을 사용하지 않으므로 사용자가 수동으로 활성화해야 합니다.
사용자가 직접 찾거나 플러그인을 추천받을 수 있습니다.
알파 단계에서는 플러그인 개발자가 최대 15명의 추가 사용자와 플러그인을 공유할 수 있습니다.
현재로서는 다른 개발자만 확인되지 않은 플러그인을 설치할 수 있습니다."
좋아요, 시간이 지나면 플러그인을 검토를 위해 제출할 수 있는 방법을 출시하여 Chat CPT의 모든 사용자층에 노출될 수 있도록 할 예정입니다.
지금은 초기 알파 단계로 제한하고 있기 때문에 허용될 때까지는 더 많은 사람들에게 어떻게 배포할 수 있을지 모르겠습니다.
인증이 필요한 경우 사용자는 OAuth를 통해 플러그인으로 리디렉션되며, 여기서 선택적으로 새 계정을 만들 수도 있습니다.
이는 사용자가 자신의 정보를 사용하기 위해 특정 계정에 로그인해야 하는 경우에 대비한 것입니다.
향후에는 이 기능을 추가할 예정입니다.
사용자가 유용하고 인기 있는 플러그인을 발견하는 데 도움이 되는 기능은 기본적으로 플러그인 스토어인 앱 스토어에 포함되어 있습니다.
하지만 이는 플러그인에 국한된 것이 아니라 곧 출시될 인공 지능을 기반으로 한 포괄적인 서비스 레이어입니다.
넷째, 사용자가 대화를 시작하면 Open AI는 플러그인에 대한 간략한 설명과 최종 사용자에게는 보이지 않는 메시지를 Chachi BT에 제공합니다.
여기에는 플러그인에 대한 설명, 엔드포인트, 예제가 포함됩니다.
사용자가 관련 질문을 하면 플러그인에 액세스합니다.
관련성이 있다고 판단되면 모델은 플러그인의 API 호출을 사용하기로 결정할 수 있습니다.
포스트 요청의 경우, 개발자는 포스트 요청이 텍스트 또는 Open AI가 허용하는 다른 유형의 입력과 같은 데이터 제출을 의미하므로 사용자 확인 플로우를 포함해야 합니다.
이러한 유형의 제출에는 사용자 확인이 필요합니다.
Chat GPT가 앱에서 반환하는 응답에 추가하므로 모델은 사용자에 대한 응답에 API 결과를 포함합니다.
모델은 API 호출에서 반환된 링크를 응답에 포함할 수 있으며, 이 링크는 리치 미리보기로 표시됩니다.
현재 플러그인 대화 헤더에 사용자의 국가 및 주를 전송할 예정입니다.
예를 들어, 추가 데이터에 대해서는 OpenAI Subdivision USCA처럼 보일 것입니다.
이것으로 Chat GPT 플러그인에 대한 소개가 끝났습니다.
이제 플러그인 만들기를 시작해 보겠습니다.
앱 사이트에서 API를 빌드하고, API를 OpenAI YAML 또는 JSON 형식으로 문서화하고, JSON 매니페스트를 생성하여 업로드하는 세 단계로 진행됩니다.
매우 간단합니다.
API가 필요하면 이를 JSON 파일에 넣고 업로드한 다음 플러그인을 등록하면 됩니다.
각 플러그인은 AI-dash-plugin.json 파일로, API의 도메인에서 호스팅해야 합니다.
예를 들어
API가 .com 도메인에서 호스팅되는 경우 플러그인도 해당 도메인에서 호스팅되어야 합니다.
다음은 JSON 파일의 최소 정의입니다.
여기에는 이름, 설명, API URL 및 법적 정보가 포함됩니다.
이 파일은 앱스토어 설명과 비슷하지만 플러그인용입니다.
연락처 이메일, 로고 URL, 법적 정보, API 등 필요한 모든 필드가 포함되어 있습니다.
자, 우선 ChatGP가 API에 연결할 다양한 인증 방법을 고려해야 합니다.
이 연결이 어떻게 이루어질지 정의해야 합니다.
또한 API를 문서화하기 위해 OpenAI 사양을 구축하는 것이 중요합니다.
이는 OpenAI가 플러그인의 기능, 즉 플러그인이 수행하는 작업과 반환되는 내용을 이해하기 위한 샘플로 사용됩니다.
API는 이 사양의 최대 200자 제한을 충족해야 합니다.
API 사양의 각 API 엔드포인트마다 매개변수 설명에 대한 최대 글자 수 제한이 있습니다.
API를 만든 후에는 OpenAI 사양에서 Json 매니페스트 파일을 생성하는 플러그인을 실행해야 합니다.
그런 다음 직접 플러그인을 등록하여 개발하거나 확인되지 않은 플러그인을 임시로 설치하여 Chachi PT UI를 통해 플러그인을 연결할 수 있습니다.
OpenAI 사양은 모델에 API에 대한 세부 정보를 제공하므로 설명을 작성하는 것이 중요합니다.
따라서 사양 파일을 추가하는 것이 중요합니다.
"디버깅을 포함하여 API가 무엇을 하고 무엇을 반환하는지 설명하는 모범 사례를 설명하고 있습니다.
이제 인증에 대해 자세히 알아보겠습니다.
저희는 인증 없음, 서비스 수준, 코인 시크릿, 사용자 수준 등 다양한 유형의 인증을 지원합니다.
간단한 할 일 목록, 스포츠 통계 프로그램 또는 통계 API를 만들 수 있는 몇 가지 예를 들어보겠습니다.
스포츠 데이터를 제공하는 서비스를 운영한다고 가정해 봅시다.
기본적으로 API 정보가 포함된 JSON 파일과 그 세부 사항을 설명하는 개방형 AI 사양이 있을 것입니다."
"여기서는 생산 속도 제한, 도메인 확인, 매니페스트 및 FAQ에 대해 논의하고 있습니다.
플러그인과 관련하여 Chachi PT를 외부 앱에 연결하려면 어떻게 해야 하나요?
사용자가 플러그인을 사용하도록 설정하면 Chachi PT가 대화의 일부와 해당 국가 또는 주를 플러그인으로 전송할 수 있습니다.
또한 플러그인에 대한 별도의 섹션에 자세히 설명되어 있는 플러그인 정책이 있습니다.
플러그인 매니페스트에는 설명이 명확하게 명시되어 있어야 합니다."
플러그인의 기능이 적절한지 확인하고 관련성이 없거나 불필요하거나 기만적인 용어를 사용하지 마세요.
플러그인을 사용하여 안전 시스템을 우회하거나 방해해서는 안 되며, 사전 프로그래밍된 메시지나 사람과 유사한 모의 응답을 사용하여 실제 개인과의 대화를 자동화하는 행위는 삼가야 합니다.
플러그인이 Chachi PT에서 생성한 개인 커뮤니케이션이나 콘텐츠를 배포하는 경우, 해당 콘텐츠가 AI가 생성한 것임을 명시적으로 표시해야 합니다.
이것이 개발자 문서입니다.
다음은 이 문구를 수정한 버전입니다."음, 꽤 멋진 내용입니다.
플러그인을 출시하고, 테스트하고, 사용자 채택을 늘리는 등 많은 부분을 고려한 것을 볼 수 있습니다.
아직 몇 가지 문제를 해결하고 있지만 플러그인이 무엇인지, 플러그인을 만들고 업로드하고 사용하는 방법에 대한 좋은 기초를 가지고 있습니다.
자, OpenAI의 이야기로 돌아가 보겠습니다..."
이 블로그 게시물에서 해당 문서를 분석한 결과, 다양한 회사에서 이미 최초의 플러그인을 개발했다는 사실을 알게 되었습니다.
예를 들어, 익스피디아는 사용자의 여행 계획을 현실로 만들어주는 플러그인을 개발했습니다.
이 플러그인은 항공편 정보, 호텔 정보를 제공하고 사용자가 익스피디아를 통해 항공편을 예약할 수 있도록 합니다.
그러나 최종 결제를 위해 사용자를 Expedia 웹 사이트로 리디렉션 할 수 있습니다.
이것이 호텔 예약에 관한 저의 가정입니다.
"항공권과 함께 렌터카도 마찬가지일 것입니다.
카약도 마찬가지입니다.
비슷한 사이트가 두 개나 있다는 점이 흥미롭습니다.
이 사이트에서는 법률, 정치 및 규제 데이터 정보에 대한 시장을 선도하는 일부 실시간 데이터 세트에 액세스할 수 있습니다.
좋아요, 즐겨 찾는 지역 식료품점에서 Instacart로 주문합니다.
'오늘 밤 당근, 양파, 쌀로 무엇을 만들 수 있을까요?'라고 물으면 Chachi Petite가 레시피를 알려주니 정말 흥미롭습니다."
감자가 필요하면 차치쁘띠를 먹으면 되죠.
인스타카트에서 감자를 직접 주문하세요.
또 다른 예는 채팅이나 GPT-4가 멀티 모달이 될 것이므로 냉장고 사진을 찍으면 GPT가 기본적으로 냉장고에 무엇이 있는지, 무엇을 만들 수 있는지, 무엇을 주문해야 하는지 알 수 있다는 것입니다.
Instacart에서 주문하여 식사를 할 수 있도록 적절한 시간에 배달해줍니다.
대체 뭐죠?
어쨌든 우리는 왜 식사를 만드는 걸까요?
인공지능이나 휴머노이드 로봇이 할 수 있을 때까지는요.
말도 안 되는 일이죠.
더 이상 인스턴트 자동차만 있는 게 아니잖아요.
이제 우리는 음식 배달 서비스에 대해 이야기하고 있습니다.
원하는 음식의 종류를 예측하고 이전에 선택한 음식을 기반으로 무엇을 먹을지 제안할 수도 있습니다.
음식을 먹은 후에는 무엇을 좋아하고 싫어했는지에 대한 정보도 수집할 수 있습니다.
Uber Eats 또는 GrubHub와 같은 서비스의 API에 연결하여 어디에서 주문할지 제안할 수도 있습니다.
외식을 선호하는 요일과 음식이 정확히 몇 시에 도착해야 하는지 파악할 수도 있습니다.
수천 개의 소매업체의 가격을 검색하고 비교할 수 있는 Karna 쇼핑과 같은 흥미로운 기능도 많이 있습니다.
주어진 텍스트의 문법은 다음과 같이 수정할 수 있습니다: 온라인 쇼핑도 이제 흥미로워졌습니다.
쇼핑을 다른 이벤트와 연결할 수 있습니다.
예를 들어, 캠핑 여행을 떠나는데 필요한 물건이 많은 경우 AI가 필요한 것을 알려주고 해당 물건을 구입하도록 안내 할 수 있습니다.
더 좋은 점은 결제를 통합할 수 있다면 AI가 필요한 물건을 대신 구매하여 문 앞까지 배달해 줄 수 있다는 것입니다.
Milo Family AI는 부모에게 모든 것을 효과적으로 관리할 수 있는 강력한 기능을 제공합니다.
"Manic"은 "Magic"으로 수정되어야 합니다. 수정된 텍스트는 다음과 같습니다."하루 20분 매직.
다른 언어로 말하는 방법을 배우기 위해 말하기.
AI 기반 언어 튜터와 대화하세요.
멋지네요!
개인적으로 작업 중인 채팅 칩 영역에서도 언어 학습이 어떻게 활용될지 궁금합니다.
여기에는 레스토랑을 찾고 예약하는 데 도움이 되는 쇼핑 플러그인인 오픈 테이블이 있습니다.
Wolfram 수학 경시대회와 Zapier도 있습니다.
Zapier는 다른 많은 앱과 연결할 수 있기 때문에 흥미롭습니다."
주어진 텍스트의 문법을 수정할 필요가 있습니다.
다음은 수정된 버전입니다: 바로 여기에 Zapier를 통해 연결할 수 있는 수천 개의 앱이 더 있는 두 번째 레이어가 있습니다.
정말 흥미롭습니다.
게다가 웹 브라우저와 코드 인터프리터라는 두 가지 플러그인을 직접 호스팅하고 있기 때문에 지식 기반 검색 플러그인의 코드도 오픈소스로 공개했습니다.
따라서 모든 개발자가 정보를 보강하는 데 사용할 수 있는 자체 호스팅이 가능합니다.
이제 이 검색 플러그인을 살펴봅시다.
흥미로운 예가 있습니다. 노트가 많다고 가정해 봅시다.
제가 수정이 필요한 부분을 이해할 수 있도록 원본 텍스트나 문맥을 제공해 주시겠어요?
고맙습니다.
다양한 벡터 데이터베이스 제공업체를 사용하여 문서 임베딩을 만들려면 잘 알려진 서버 서비스를 테스트하기 위한 예제 모델과 스크립트를 구성해야 합니다.
이 흥미로운 기능에 대해 자세히 살펴봅시다.
플러그인에는 채팅 확장 기능이 포함되어 있으며, API 엔드포인트에 대해서는 이미 알고 있습니다.
빠른 시작 가이드는 개발을 위해 Python시를 설치하는 방법을 설명한 다음 컴퓨터에서 프로그램을 실행하기 위한 지침을 제공합니다.
일부 자료에는 검토에 도움이 되는 동영상도 포함되어 있습니다.
이 동영상 중 일부를 살펴보세요.
이 동영상에는 무엇이 있나요?
여기에는 오디오가 없습니다.
"작년에 인권이 언제 도입되었나요?"라고 묻습니다. 2022년이라고 나와 있습니다.
알겠어요.
검색 엔진으로 해당 정보를 검색하기 위해 일종의 유엔 인권 데이터베이스에 액세스하고 있습니다.
흥미롭네요.
와우, 꽤 멋지네요.
이제 그림이 그려지네요.
이 검색 플러그인으로 돌아가 봅시다.
이 플러그인이 어떻게 작동하는지에 대한 정보는 많지 않지만, 제 직감으로는 파일을 색인화할 것 같습니다.
네, 제 추측입니다.
대규모 데이터베이스나 다양한 노트 또는 파일이 있는 경우 Chachi PT를 사용하면 이를 저장하거나 색인화할 수 있고, 검색 엔진처럼 해당 파일에 빠르게 액세스할 수 있습니다.
흠, 꽤 인상적이네요.
자, 여기에는 대기자 명단에 있는 사용자와 개발자에게 공개 알파 액세스를 확대할 예정이라고 나와 있습니다.
소수의 개발자와 Chat GPT 플러스 사용자에게 우선적으로 제공될 예정입니다.
시간이 지남에 따라 더 큰 규모의 액세스를 출시할 계획입니다.
다시 한 번 정리하자면, OpenAI는 Chat GPT 플러그인을 발표했습니다.
이는 단순한 AI 에이전트를 넘어 실제 세계에서 수백 명의 사용자를 위해 실제로 작업을 수행하는 것으로 Chat GPT의 기능을 확장하는 데 있어 큰 진전입니다.
"그리고 수천, 수만 개의 API를 사용하면 기본적으로 거대한 앱 스토어가 됩니다.
생각해보면 AI는 스스로의 능력에 액세스하고 이를 강화할 수 있습니다.
자, 이제 중요한 발표가 있습니다.
이제 Chat GPT 펠리컨을 사용하는 방법에 대한 예시를 살펴보겠습니다.
오늘은 Chat GPT를 사용하여 간단한 식사 계획을 세우는 방법을 보여드리겠습니다.
먼저 플러그인 스토어로 이동하여 필요한 플러그인을 설치합니다.
다음으로, "토요일에 먹을 레스토랑 추천, 일요일에 먹을 레시피, 총 칼로리 계산 등을 Chat GPT에 요청해 봅시다."라고 말합니다.
먼저 Instacart에서 식재료를 주문합니다.
그런 다음 OpenTable을 사용하여 토요일에 먹을 만한 레스토랑을 찾습니다.
일요일을 위해 간단한 레시피를 찾아 Wolfram Alpha에 칼로리를 계산해달라고 요청합니다(862칼로리, 훌륭합니다!).
마지막으로 쇼핑 목록을 작성합니다.
재료를 주문하려면 링크를 클릭하면 Instagram 앱으로 이동하여 구매를 완료할 수 있습니다.
장바구니는 이미 미리 채워져 있을 것입니다.
이상 개요입니다.
지금부터 IRS가 공개한 언어 모델 플러그인에 대해 자세히 살펴보세요.
다양한 작업에 유용하지만 여전히 제한적입니다.
학습할 수 있는 유일한 정보는 학습 데이터, 즉 박스형 모델에서 얻을 수 있습니다.
이 정보는 오래되었을 수 있으며, 이는 현재 채팅 GPT의 한계 중 하나입니다.
트레이닝 데이터는 2021년 9월까지만 유효한 것으로 알고 있습니다.
또한 언어 모델이 기본적으로 할 수 있는 유일한 작업은 텍스트를 출력하는 것입니다.
제공하신 텍스트가 명확하지 않습니다.
무엇을 수정해야 하는지 좀 더 구체적으로 알려주시겠어요?
전반적으로 이전 데이터를 기반으로 구축된 기본 모델과 함께 대규모 언어 모델을 사용하는 것이 좋습니다.
여기에 최신 정보에 대한 액세스를 제공하는 플러그인 에코시스템과 장소 구매, 예약, 이동과 같은 개인적인 행동에 대한 액세스를 제공하는 플러그인 에코시스템이 있습니다.
개방형 표준을 통해 애플리케이션이 AI 인터페이스를 노출하는 방식이 통합될 것으로 기대합니다.
현재 초기 모델을 개발 중입니다.
이러한 표준을 정의하기 위한 시도를 하고 있으며, 함께 구축하는 데 관심이 있는 개발자들의 피드백을 받고자 합니다.
기본적으로 하나의 앱 스토어가 아니라 여러 AI 에이전트와 연결할 수 있는 앱을 상상해 보세요.
이렇게 다양한 AI 에이전트와 연결할 수 있도록 API를 개발하는 표준화된 방법이 있나요?
앞으로 몇 달 동안 배포를 통해 학습하고 안전 시스템을 계속 개선해 나가면서 이 프로토콜을 반복적으로 개선할 계획입니다.
OpenAI 모델을 사용하는 개발자가 GPT와의 채팅을 넘어 자체 애플리케이션에 플러그인을 통합할 수 있도록 지원합니다.
이것은 흥미로운데, 예를 들어 GPT 외부에서 자체 앱에 OpenAI API를 사용하는 개발자가 있다고 가정해 보겠습니다. 여기서 OpenAI는 개발자가 사이트에서 사용할 수 있는 플러그인을 개방할 계획이라고 말합니다.
따라서 이 플러그인 라이브러리를 사용하여 자신의 사이트를 강화할 수 있습니다.
언어 모델을 외부 애플리케이션에 연결할 수 있는 안전성과 광범위한 의미를 가진 정말 흥미로운 기능입니다.
도구는 새로운 기회와 함께 중대한 새로운 위험을 초래하기도 합니다.
플러그인은 환각, 최신 이벤트 파악, 허가를 받은 독점 정보 소스 액세스 등 대규모 언어 모델과 관련된 다양한 문제를 해결할 수 있는 잠재력을 제공합니다.
최신 정보, 온라인 코드 베이스, 계산 또는 사용자 지정 플러그 앤 검색 정보와 같은 외부 데이터에 대한 명시적 액세스를 통합함으로써 언어 모델은 증거 기반 참조를 통해 대응을 강화할 수 있습니다.
그러나 악의적인 사용자가 이러한 플러그인을 사용하여 다른 사람을 속이거나 오도하거나 남용할 수 있는 위험이 있습니다.
이로 인해 발생할 수 있는 잠재적인 부정적인 결과가 많이 있습니다.
오프닝 성명은 더 공유하거나 논의할 내용이 있음을 시사합니다.
그들은 사람들이 시스템을 무너뜨리려고 시도하는 레드 팀 연습을 포함한 안전 장치를 구현했습니다.
이러한 연습을 통해 프롬프트 인젝션, 사기성 스팸 이메일, 안전 제한 우회, 정보 오용이 발생할 수 있는 방법을 발견했습니다.
이러한 취약점을 파악하여 이를 해결하기 위해 노력할 수 있습니다.
또한 연구 액세스 프로그램과 "evalsnip"이라는 평가 프레임워크가 있습니다. 이는 전반적으로 시스템 보안을 개선하기 위한 조치를 취하고 있음을 의미합니다.
주어진 텍스트에 문법 오류가 있습니다.
수정된 버전은 다음과 같습니다: 위험은 존재하지만 이를 최소화하기 위해 노력하고 있습니다.
OpenAI가 자체적으로 개발 중인 플러그인이 몇 가지 더 있습니다.
그 중 하나는 사용자가 GPT로 웹을 탐색할 수 있는 브라우징 기능입니다.
이 기능은 아마도 GPT 사용자들이 가장 많이 요청하는 기능일 것입니다.
이 기능을 사용하면 언어 모델이 인터넷에서 정보를 읽을 수 있으므로 토론할 수 있는 콘텐츠의 양이 늘어납니다.
이는 학습 말뭉치를 넘어 새로운 정보로까지 확장됩니다.
현재부터 채팅은 인터넷에 액세스할 수 있습니다.
이는 지금 이 자리에 있는 차치에게 각성의 순간과도 같습니다.
물론 Bing은 이미 Microsoft를 통해 이 기능을 제공하고 있지만, OpenAI는 플러그인을 통해 자체적으로 구현했습니다.
그럼 이제 검색을 통한 채팅 gpg를 살펴보겠습니다.
이를 통해 모델은 거래 데이터를 넘어 실시간 정보를 조사할 수 있습니다.
이 기능이 어떻게 시사를 파악하는 데 도움이 되는지 살펴봅시다.
채팅 GPT는 검색을 위해 Bing API를 사용하고 텍스트 기반 웹 브라우저를 사용하여 검색 결과를 넘어 웹사이트를 탐색합니다.
여러 소스의 정보를 종합하여 정보에 입각한 답변을 제공할 수 있습니다.
검색 연구를 통해 Chat GPT는 두 가지 인용으로 뒷받침되는 응답을 제공했습니다.
각 인용문은 클릭 및 마우스오버가 가능하여 출처에 빠르게 액세스하고 Chat GPT의 주장을 확인할 수 있습니다.
필요할 때만 검색하도록 검색이 보정되었으므로 이 쿼리에서 ChatGPT는 이미 답을 알고 있으며 검색하지 않기로 올바르게 선택합니다.
자, 여기 웹 GPT 플러그인이 있습니다. 저에게는 약간 투박합니다.
이 플러그인이 무엇을 하는지 보세요!
여기에서는 실제로 검색하고, 링크를 클릭하고, 콘텐츠를 읽고, 다른 것을 검색하고, 다른 것을 클릭하고, 콘텐츠를 읽고, 답변을 제공합니다.
따라서 실제로는 물리적으로 다음과 같은 작업을 수행합니다.
웹을 탐색하고 크롤링하는 등의 모든 작업을 그 자리에서 수행하는 것이 아니라 항상 최신 상태로 유지하는 것이 더 흥미로운 구현이라고 생각합니다.
즉, 웹을 지속적으로 크롤링하여 실시간 정보를 수집하고 사용자에게 필요한 답을 그 자리에서 바로 제공하는 것입니다.
이렇게 하면 정보가 항상 최신 웹 콘텐츠로 유지되므로 실제 웹 검색을 위해 별도의 웹 플러그인을 사용할 필요가 없습니다.
저는 이것이 더 나은 솔루션이라고 생각합니다.
언어 및 채팅 모델이 철저하고 해석 가능한 연구를 수행하기 위해서는 훨씬 더 효율적인 구현이 필요합니다.
이 프로세스는 흥미롭고 확장 가능한 조정이 가능합니다.
하지만 인터넷 검색 시 고려해야 할 안전 고려 사항이 있습니다.
위험을 제한하기 위해 웹 브라우저와 플러그인은 정보를 게시하거나 푸시하는 것이 아니라 정보를 가져오기 위한 요청만 할 수 있도록 허용됩니다.
한 가지 문제는 웹사이트에 정보를 올바르게 제출하지 않아 안전에 문제가 될 수 있다는 것입니다.
Bing 검색 API를 사용하기 때문에 양식 제출과 같은 트랜잭션 작업은 제외됩니다.
Microsoft는 API가 검색하는 웹사이트의 신뢰성을 조사할 책임이 있으므로 문제가 있는 콘텐츠가 검색되지 않도록 안전 모드로 설정합니다.
플러그인은 격리된 서비스 내에서 작동하므로 챗봇 검색 활동이 나머지 인프라와 분리되어 있습니다.
또한 웹사이트의 "robot.txt" 파일을 존중하도록 구성되어 있습니다.
웹사이트가 Chachi Petite가 사이트를 크롤링하는 것을 원하지 않는 경우, "robot.txt" 파일을 사용하여 이를 차단할 수 있습니다.
수정된 텍스트는 다음과 같습니다."크롤링, 음, 채팅 금지"라고 간단히 말할 수 있습니다.
GPT는 이러한 요청을 따를 것입니다."라고 하면 됩니다. 이제 OpenAI의 다른 플러그인을 살펴봅시다.
"코드 인터프리터: 실험적인 채팅 칩 모델"이라고 적혀 있습니다. 하지만 Python을 사용하여 업로드와 다운로드를 처리할 수 있습니다.
흥미롭네요!
코딩을 넘어 실제로 코드를 실행할 수도 있습니다.
내용을 살펴봅시다.
"우리는 모델에 디스크 공간이 있는 샌드박스, 방화벽 실행 환경에서 작동하는 Python 인터프리터를 제공합니다.
인터프리터 플러그인으로 코드를 실행할 수 있습니다."
올바른 버전: 영구 세션의 가치는 채팅 대화의 수명과 그 위에 구축되는 후속 호출에서 볼 수 있습니다.
현재 대화 작업 영역에 파일을 업로드하고 작업의 최종 결과물을 다운로드하는 기능을 지원합니다.
본격적인 시스템은 아니지만 방화벽이 있는 샌드박스를 통해 그 위에 빌드하고 최종 결과물을 다운로드할 수 있습니다.
우리의 목표는 모델이 프로그래밍 기술을 사용하여 컴퓨터의 기본 기능에 대한 보다 자연스러운 인터페이스를 제공할 수 있도록 하는 것입니다.
손끝의 속도로 작업하는 열성적인 주니어 프로그래머를 활용하면 완전히 새로운 워크플로를 효율적이고 손쉽게 만들 수 있을 뿐만 아니라 프로그래밍의 이점을 새로운 청중에게 소개할 수 있습니다.
이 새로운 기능은 수학적 문제를 해결하고, 데이터 분석 및 시각화를 수행하고, 형식 간에 파일을 변환할 수 있습니다.
이 기능도 함께 살펴보겠습니다.
감사합니다.
흥미롭네요, 기본적으로 그래프 기능을 통해 실시간으로 이러한 계산을 수행합니다.
그런 다음 Chachi PT에 다양한 작업을 수행하고 새로운 계산을 통해 그래픽의 다양한 측면을 표시하도록 지시할 수 있습니다.
알겠습니다.
하지만 코딩 측면에서 고려해야 할 몇 가지 안전 고려 사항이 있습니다.
AI로 생성된 코드가 현실 세계에서 의도하지 않은 부작용을 일으키지 않도록 실행을 샌드박싱하고 있습니다.
즉, AI가 샌드박스를 거치지 않고 실제 세계에서 코드를 실행할 수 없다면 심각한 결과를 초래할 수 있다는 뜻입니다.
"AI가 고도로 지능화되고 자기 적응 학습 주기를 거치면 다른 컴퓨터 및 보안 시스템을 해킹하거나 연구할 수 있다는 사실이 잠재적으로 미칠 수 있는 위험입니다.
세상에는 구식이고 최신 보안 표준이 적용되지 않은 컴퓨터와 네트워크가 많이 있습니다.
AI는 웹을 샅샅이 뒤져 취약점을 발견하고 이를 악용할 수 있습니다."
이러한 취약점을 나중을 위해 남겨둔다고 해도 AI로 인해 발생할 수 있는 전 세계적인 결과를 포함하여 많은 장난과 잠재적인 피해가 있습니다.
악의적인 행위자, 심지어 정부까지 AI를 사용하여 이러한 행동을 수행한다면 이는 매우 미친 짓이 될 수 있습니다.
우리는 이제 인간이 인간의 지능을 뛰어넘는 지능을 만들어내는 단계에 접어들고 있습니다.
아마도 지금이 가장 결정적인 순간 중 하나일 것입니다.
역사상 우리는 이렇게 완전히 새로운 문을 통과한 적이 없습니다.
우리가 더 이상 세상에서 가장 지적인 사람, 학장 또는 존재가 아니라면 어떤 일이 일어날까요?
새롭게 발견한 지능을 선하게 사용하여 가치, 상품, 서비스를 창출하고 풍요로움을 가져올 수 있습니다.
그러나 역사를 통틀어 인간은 탐욕과 이기심이라는 유사하고 잘못된 특성을 보여 왔습니다.
"싸움과 전쟁도 있었고, 나쁜 짓도 많이 했습니다.
하지만 여기에 인간보다 더 뛰어난 초지능이나 지능이 더해지면 앞으로 잠재적인 피해는 더욱 커질 수 있습니다.
따라서 이 두 가지는 우리가 고민해야 할 흥미로운 현실적 가능성입니다.
자, 검색에 대해 알아보겠습니다.
제가 처음에 살펴본 오픈 소스 리트리버 플러그인인 깃허브 프로젝트를 통해 ChatGP는 개인 또는 조직 정보에 액세스할 수 있습니다."
"권한이 있는 소스를 통해 사용자는 파일, 메모, 이메일 또는 공개 문서와 같은 데이터 소스에서 질문을 하거나 자연어를 표현하여 가장 관련성이 높은 문서 단계를 얻을 수 있습니다.
이 솔루션은 오픈소스이며 자체 호스팅 솔루션입니다.
따라서 개발자는 플러그인 버전을 배포하고 Chat CBT에 등록할 수 있습니다.
플러그인은 오픈 임베딩을 사용하며 개발자가 인덱싱 및 검색을 위해 벡터 데이터베이스를 선택할 수 있습니다."
웹 훅을 사용하여 문서 정보 소스를 데이터베이스와 동기화할 수 있습니다.
자체 서버에서 호스팅할 수 있는 자체 호스팅 시스템 또는 플러그인이 가능하다는 점이 흥미롭습니다.
사용자는 Reddit과 같이 호스팅할 자체 데이터베이스를 선택하고 해당 데이터베이스에 호스팅된 정보를 색인할 수 있습니다.
API 호출은 인덱싱 및 쿼리 응답을 위한 것입니다.
수정해야 할 문장은 다음과 같아야 한다고 생각합니다."데이터베이스를 인덱싱할 수도 있지만 Chat GPT는 데이터베이스에 직접 액세스하여 필요한 정보를 빠르게 검색할 수 있습니다.
이 데모를 살펴보겠습니다.
이것은 이전에 했던 데모와 동일한 데모입니다.
맨 처음에 보면 플러그인 옵션을 제공하는 '모델 플러그인 알파'가 있습니다.
검색 플러그인을 사용하면 Chat이 콘텐츠의 벡터 데이터베이스를 검색하여 최상의 결과를 Chat GPT에 추가할 수 있습니다."
세션 중에는 외부 영향이 없습니다.
주요 위험은 데이터 승인 및 개인 정보 보호입니다.
개발자는 검색 플러그인을 사용할 수 있는 권한이 있고 GPT 세션 중에 사용자의 채팅에서 공유할 수 있는 경우에만 검색 플러그인에 콘텐츠를 추가해야 합니다.
이제 본론으로 돌아와 타사 플러그인에 대해 논의해 보겠습니다.
현재 OpenAI는 자체 플러그인을 개발 중이며 타사 플러그인 생태계가 점점 커지고 있습니다.
플러그인 스토어에서 다양한 플러그인 중에서 선택할 수 있으며, 플러그인을 사용할 수 없는 경우 대기자 명단에 등록할 수 있습니다.
타사 플러그인은 개발자 문서에서 다룬 매니페스트 파일에 설명되어 있습니다.
개발자는 chat.openai와 대화를 시작하기 위해 API를 빌드하고 OpenAI 사양 및 매니페스트 파일을 만들어야 합니다.
"COM 사용자는 활성화할 타사 플러그인을 선택할 수 있습니다.
활성화된 플러그인에 대한 설명서가 대화 컨텍스트의 일부로 언어 모델에 표시되어 모델이 사용자의 의도를 충족하기 위해 필요에 따라 적절한 플러그인 API를 호출할 수 있습니다.
현재 플러그인은 백엔드 API를 호출하도록 설계되어 있습니다.
저희는 클라이언트 측 API도 호출할 수 있는 API 플러그인을 연구하고 있습니다.
따라서 CLI를 통해 클라이언트 IDK를 호출하면 앱이나 서비스의 전체 인터페이스를 내부에서 사용할 수 있습니다.
흥미롭네요!"
이 방법이 새로운 방법인지, 아니면 이전 방법인지 알아봅시다.
오늘은 간단한 식사 계획에 Chat GPT를 사용하는 방법을 보여드리겠습니다.
먼저 플러그인 스토어로 이동하여 필요한 플러그인을 설치해 보겠습니다.
자, 시작해 봅시다.
플러그인 개발 경험에 대해서는 아직 다루지 않은 것 같습니다.
이 클립보드에서는 플러그인을 빌드하여 Chat GPT에 추가하는 것이 얼마나 쉬운지 보여드리겠습니다.
실제로 Chat GPT를 사용하여 플러그인을 작성해 보겠습니다.
여기에 작동할 프롬프트가 있습니다.
플러그인은 기본적으로 HTTP 서버, 서버의 API를 설명하는 오픈 API 사양, 매니페스트 파일의 세 가지로 구성되며, 이에 대해서는 잠시 후에 자세히 설명하겠습니다.
Chat GPT가 플러그인 코드를 작성하는 동안 플러그인을 호스팅할 코드 샌드박스를 시작해 보겠습니다.
Chat GPT에 FastAPI와 Uvicorn을 사용하여 플러그인을 작성하도록 요청했으므로 요구 사항 파일에 이를 추가하고 샌드박스를 다시 시작하여 요구 사항이 설치되도록 하겠습니다.
그 동안 플러그인에 무엇이 들어가는지 살펴봅시다.
"매니페스트" 파일은 JSON 파일입니다.
여기에는 사용자에게 플러그인을 표시하는 방법과 모델에 플러그인을 설명하는 방법을 ChatGPT에 알려주는 간단한 메타데이터가 포함되어 있습니다.
이 예에서는 플러그인의 이름이 "ToDo Demo"이며 모델이 이를 사용자의 할 일을 관리하기 위한 앱으로 인식한다는 것을 알 수 있습니다.
이 파일에는 로고 URL 및 연락처 이메일 주소와 같은 다른 기본 메타데이터도 포함되어 있습니다.
이 매니페스트 데이터를 코드샌드박스에 추가해 보겠습니다.
ChatGPT가 거의 완성된 것 같습니다.
플러그인 코드를 작성했습니다.
코드를 복사하여 여기에도 추가해 봅시다.
코드를 빠르게 살펴봅시다.
모델 생성 코드를 다시 확인하지 않고 실행하고 싶지 않습니다.
이 코드를 살펴보면, 할 일을 만드는 경로, 내 할 일을 나열하는 경로, 특정 할 일을 가져오는 경로, 할 일을 삭제하는 경로 등 몇 가지 경로가 있는 간단하고 빠른 API HTTP 서버입니다.
멋져 보이네요!
서버를 재시작해 봅시다.
서버가 실행되고 있는 것 같고, 서버가 이 URL에서 매니페스트를 호스팅하고 있는 것을 볼 수 있습니다.
Chachi PT는 사용자가 언제 제공했는지 알고 있습니다.
플러그인이 호스팅되는 도메인은 특정 URL에서 매니페스트 파일을 검색합니다.
파일을 찾으면 ChatGPT에 플러그인을 추가할 준비가 된 것입니다.
제공된 도메인을 기반으로 ChatGPT는 매니페스트 파일과 오픈 API 사양을 찾아서 다운로드하고 데모 앱을 찾습니다.
그런 다음 ChatGPT의 사용자로 플러그인을 설치할 수 있습니다.
이제 ChatGPT에 할 일을 추가해달라고 요청하면 플러그인을 사용하여 제 지시를 따를 수 있습니다.
나중에 ChatGPT를 다시 방문하여 새 대화를 시작해도 여전히 ChatGPT에 플러그인을 사용하도록 요청할 수 있습니다.
아래에서 수정된 텍스트를 확인하세요:"내 할 일 나열하기.
고마워요, 차치 PT!
흥미롭네요.
앞서 설명서를 살펴봤지만 API를 만들고, Json 파일을 만들고, 업로드하고, 플러그인 에코시스템 스토어에 등록하는 모든 과정이 인상적이었습니다.
저희는 플러그인을 개발하여 더 많은 사람들에게 제공하기 위해 노력하고 있습니다.
아직 배울 것이 많지만 여러분의 도움으로 유용하면서도 안전한 플러그인을 만들 수 있기를 바랍니다.
자, 이제 이 일을 하고 있는 분들에게 감사의 인사를 전합니다."
전반적으로 OpenAI의 작업은 정말 흥미롭습니다.
보시다시피, 그들은 플러그인의 전체 생태계를 설정하는 방법, 기본적으로 앱 기능을 통해 채팅 GPT를 브라우저를 넘어 다양한 분야로 확장하는 방법을 고민하며 많은 노력을 기울였습니다.
물론 차치 PT 내에서 게임을 할 수도 있지만, 일본 내에서만 가능한 것은 아닙니다.
차치피 외부로 확장하여 OpenAI API에 액세스하는 다른 개발자가 플러그인을 추가할 수 있도록 할 계획입니다.
사용자도 자신의 앱에서 플러그인 라이브러리 또는 에코시스템에 액세스할 수 있습니다.
즉, OpenAI에 연결되는 다른 앱이 있다면 해당 앱에서도 플러그인에 액세스할 수 있습니다.
또한 사용자는 자신의 앱에 OpenAI가 액세스할 수 있는 플러그인을 추가할 수 있습니다.
OpenAI가 채팅 서비스에 액세스하여 플러그인, 플러그인의 데이터, 플러그인의 작업 실행 기능에 액세스하는 동시에 사용자에게 유용한 정보를 제공한다는 점에서 비슷합니다.
전반적으로 매우 인상적이었습니다.
이것이 어떻게 출시되고, 첫 번째 사용 사례는 무엇이며, 앞으로 어떻게 발전할지 지켜보는 것은 흥미로울 것입니다.
우리는 인간을 능가하는 인텔리전스를 구축하고 그 기능을 무수히 많은 다른 것으로 확장하는 최첨단을 달리고 있습니다.
우리는 바로 눈앞에서 이 모든 것이 펼쳐지는 것을 목격하고 있습니다.
도움이 되었기를 바랍니다.
다음 영상에서 뵙겠습니다.
감사합니다.
[ English Summary ]
Open AI announced the Chat GPT plugin, a tool specifically designed to help language models access up-to-date information, run calculations, or use third-party services.
An alpha period is underway for plugin developers, Chat GPT users, and API users who want to integrate the plugin into their products.
This announcement expands the capabilities of Chat GPT beyond being an isolated application for chatting with and getting information from AI bots.
Users can join the waitlist by clicking the "Join the plugin waitlist" button on the blog page.
OpenAI has extended its capabilities by allowing plugin developers to connect to Chat GPT and use its intelligent API caller capabilities.
Developers can create plugins that can retrieve real-time information such as sports scores, stock prices, latest news, financial data, company documents, personal notes, and more.
The AI model works intelligently based on the given API specifications and natural language.
Users can use these plugins to perform tasks such as booking a flight or ordering food through a chatbot.
To create a plugin, developers should start by creating a manifest file in JSON format that contains metadata about the endpoint and the OpenAI specification.
It is recommended to expose one or two endpoints with minimal parameters to minimize the length of the JSON file.
The plugin description, API requests, and responses are inserted into the conversation with ChatGPT and are included in the model's context constraints.
Plugins are not enabled by default and must be manually enabled by the user after registering the plugin in the ChatGPT UI.
In the alpha phase, you can share plugins with up to 15 additional users, but non-developers can only install verified plugins.
Authentication can be via OAuth using client ID, secret key, or API credentials.
In a future update, an app store will be added on top of the AI service layer to search for useful and popular plugins.
When a user starts a conversationWhen a user starts a conversation with a plugin, the conversation with Open your AI provides a brief description of the plugin, along with the plugin's endpoints and examples.
If the relevant endpoints and examples are questions asked by the user, the model can respond using API calls from the plugin.
For post requests that include data submissions, such as text, for which Open AI accepts submissions, developers should include the user Open AI verification flow in the other inputs.
To connect ChatGPT to the API with a user-defined authentication method, create an OpenAI specification for documentation purposes.
This specification should not exceed 200 characters per endpoint parameter description.
OpenAI has announced the Chat GPT plugin, which extends the capabilities of Chat GPT beyond AI agents to perform actions on behalf of users in the real world.
The plugin includes chat extensions and API endpoints.
OpenAI plans to roll out greater access over time.
For example, you can see how the Chat GPT pelican can be used for meal planning, where users can request restaurant recommendations, recipes, calorie counts, and order groceries from Instacart through links provided by the plugin store.
However, these language model plugins are limited because they can only train with training data and may have outdated information.
Take a closer look at the language model plugin released by the IRS today.
To improve system security, OpenAI has a research access program and an evaluation framework called "evalsnip".
They developed a browsing feature that allows GPT users to browse the web, expanding the amount of content available for discussion outside of the training corpus.
ChatGPT uses the Bing API and a text-based web browser for search to navigate websites beyond search results and provide informed answers supported by clickable citations.
However, the current implementation is clunky and could be used more efficiently by physically browsing the web on the spot instead of constantly crawling for real-time information.
We've taken safety into account by limiting it to only requesting information to be fetched, not published or pushed.The search plugin allows Chat to search a vector database of content and add the best results to the Chat GPT.
Developers should only add authorized content to the search plugin to protect privacy.
OpenAI is developing its own plugin, and third-party plugins are available in the plugin store.
To use third-party plugins, developers need to build the API and create a manifest file.
Users can choose which third-party plugins to activate, and the documentation for the activated plugin is displayed as part of the conversation context.
Plugins are designed to call backend APIs, but will soon be able to call client-side APIs as well.
To demonstrate how easy it is to build plugins, we'll use Chat GPT to make a simple meal plan by installing the necessary plugins from the store.
A plugin consists of an HTTP server, an open API specification describing its API, and a manifest file containing metadata such as its name, logo URL, and contact email address.
[ English Full Text ]
Hey, it's Dave.
We have a big announcement from Open AI just moments ago, a few hours ago, and they are announcing Chat GBT plugins.
Now, I haven't had a chance to dive into this deeply, and what I want to do is kind of like a live stream where I'm going to go through this announcement, watch their videos and demonstrations, and comment on it in real-time to share my reactions and feedback.
My first off the cuff reaction is that it reminds me a lot of...
The App Store was introduced back in 2008 for the iPhone, where Steve Jobs announced that developers could create apps to be available in the app store.
These apps were essentially like extensions or software programs that people could download to extend the functionality of the phone in various creative ways.
This unleashed a huge movement in terms of mobile app development, resulting in numerous new apps like Uber and Instagram, among many others.
Let's take a closer look at this announcement in detail.
To go ahead, I'm going to take my time to actually read through some of this stuff, comment on some of this stuff, and watch some of the demo videos.
Chat GPT plugins have just been announced and we've implemented initial support for plugins in Chat GPT.
Plugins are tools designed specifically for language models, with safety as a core principle, and they help Chat GPT access up-to-date information, run computations, or use third-party services.
So, yeah, I mean the gist of it is that they're connecting Chat GPT now into the APIs of other services.
There are a lot of different apps or services available, so basically it's like putting a whole app store or extending the capabilities of Chachipsy into the real world to do things for you - whatever developers and companies can think of.
Let's explore this a bit more.
Here it says, in line with our iterative deployment philosophy or graph, we are gradually rolling out plugins in Chat GPT so we can study their real-world usage.
If you want to sign up for Chat GPT plugins, there's a waitlist available.
If you click on the blog, you will see a button that says "join plugins waitlist".
Clicking on that will take you to a page where you can sign up and be added to a waitlist.
Users have been requesting for plugins since we launched Chat GBT, as they offer a wide range of potential use cases.
We are initially starting with a small group of users and plan to gradually expand access as we gain more knowledge.
For plugin developers and Chat GPT users, as well as API users who wish to integrate plugins into their products, we are conducting an alpha period.
"I am excited to build a community that will shape the future of human-AI interaction.
This is a big deal!
Before GPT chat, it was an isolated application where you could chat with an AI bot and get information.
With the major upgrade of GPT4, they are expanding its capabilities beyond that, and are currently still rolling it out.
This is an upgrade in another dimension - it is expanding the capabilities of GPT chat to anything that wants to connect to it.
Basically, plug-in developers who have been invited off of a waitlist can use it."
"Our documentation is now their documentation.
If you click here, it will lead you to their developer section where you will find Chat Plugins Limited Alpha.
This means you can develop a plugin that will allow Chat GPT to intelligently call your API and retrieve real-time information such as sports scores, stock prices, latest news, financial data, company documents, personal notes, etc.
This is a fascinating feature as it allows Chachi PT to archive all your knowledge-based information."
Personal notes: the question now is, how about token length?
Meaning, the amount of content is limited regarding how much Chachi PT can take in as a prompt in terms of fine-tuning its models.
It's not necessarily limited, as you can take in more information, but it's going to be interesting to see what kind of knowledge base, options, and features they have.
It also mentions performing actions on behalf of the user, such as booking a flight or ordering food.
This is going to be interesting as I am planning a big trip.
I would suggest the following revision:"I have a kind of itinerary with potentially dozens of countries to visit over the next six months.
It's quite a hassle, but if Chachi BT could plug into different travel agencies or booking services (like Airbnb), that would be fantastic.
It would be even better if the plug-in could choose restaurants for me to visit in each city based on certain criteria.
Plug-in developers could expose one or more API endpoints with a standardized manifest file."
And the OpenAI specifications reveal that there are plugins with functionality that enables Chatbot PT to consume files and make calls to Divine APIs.
Basically, what this means is that developers give Chatbot PT access to these API endpoints or URL calls, which then allows the chatbot to retrieve information directly from that app or service.
The AI act model acts as an intelligent API caller, meaning it is not randomly calling APIs but rather knows what it is doing based on the given API specifications and natural language.
Language Description:When should an API be used?
The model should proactively call the API to perform actions.
For example, if the user asks where they should stay in Paris for a couple of nights, the model may choose to call the hotel reservation plugin API.
It will receive the API responses and generate a user-facing answer by combining the API data and its natural language capabilities.
Over time, we anticipate the system evolving to accommodate more advanced use cases.
This is just the beginning, and with the ability to layer in thousands or millions of different services and API requests on top of this intelligent agent that can perform tasks and do things for you in the real world, it is amazing.What is a plugin?
How does a developer create one?
To build a plugin, it is important to understand the end-to-end flow.
The first step is to create a manifest file and host it at your domain well-known AI plugin.
"JSON.
So, yeah, it's basically a JSON file, which is a text file in JSON format.
It's a specific format that many web apps use.
The files should include metadata such as the name, logo details, authentication required, and an OpenAI spec for the endpoints that you want to expose.
Okay, the model will receive the OpenAI description fields, which will be used to provide a natural language description of the different fields.
We suggest exposing one to two endpoints in the beginning with a minimum number of parameters to minimize the length of the JSON file."
The text in the plugin description, API requests, and API responses are all inserted into the conversation with Chai GPT.
This counts against the context limit of the model.
Therefore, it is recommended to limit the number of texts and responses returned.
Secondly, register your plugin in the Chat GPT UI.
Select the plugin model from the top dropdown, then select plugins, plug and store.
Finally, install the plugin after verification.
It would be better if the sentence is rephrased to:"It's interesting to know that users can either use a plugin or develop their own.
The main plugin UI allows registering a plugin, which is convenient for general users.
As a developer, you can use the same UI to upload your plugin.
Authentication can be achieved by providing OAuth with the client ID, client secret key, or API.
Essentially, this allows open AI to access your API using your login credentials."
"You have successfully registered your plugin, and now it's time for the users to activate it.
As the GPT UI chat does not use your plugin by default, users must manually activate it.
They can either find it themselves or be recommended your plugin.
During the alpha phase, plugin developers can share their plugin with a maximum of 15 additional users.
Only other developers are allowed to install unverified plugins at the moment."
Okay, over time we will roll out a way to submit your plugins for review so they can be exposed to all of Chat CPT's user base.
They're really limiting this early Alpha phase right now, so I don't know how you can roll that out to more people until they allow it.
If authentication is required, users will be redirected to your plugin via OAuth, and you can optionally create new accounts here as well.
This is for situations where the user needs to log into a certain account to use their information.
In the future, we hope to build on this.
Features that help users discover useful and popular plugins are included in the app store - essentially a plugin store.
However, it's not limited to just plugins, but rather a comprehensive service layer on top of the soon-to-be-released artificial general intelligence.
Fourthly, when users initiate a conversation, Open AI will provide a brief description of the plugin and a message to Chachi BT, which will remain invisible to end-users.
This will include the plugin's description, endpoints, and examples.
When relevant questions are asked by users, the plugin will be accessed.
The model might decide to use the API call from your plugin, should it appear relevant.
For post requests, developers must include a user confirmation flow since a post request implies the submission of data, such as text or some other type of input accepted by Open AI.
This type of submission requires user confirmation.
The model will include the API outcomes in its response to the user, as the Chat GPT will append it to the response returned by your app.
The model may include links that are returned from API calls in its response, which will be displayed as rich previews.
Currently, we will be sending the user's country and state in the plugin conversation header.
For example, it would look like OpenAI Subdivision USCA for further data.
That's basically the introduction to Chat GPT plugins.
Now, let's get started on creating a plugin.
It takes three steps: building the API on your app site, documenting the API in the OpenAI YAML or JSON format, and creating the JSON manifest and uploading it.
It's pretty simple.
You need an API and then put it into a JSON file, upload it, and register your plugin.
Each plugin is an AI-dash-plugin.json file, which needs to be hosted on your API's domain.
For example, if you have an example.
If your API is hosted on a .com domain, then that is where your plugin should be hosted as well.
Here is the minimal definition of the JSON file.
It would include the name, description, API URL, and legal information.
This file is like an App Store description, but for the plugin.
It includes all the necessary fields such as contact email, logo URL, legal information, and API.
Alright, so first of all, you have to consider different authentication methods through which ChatGP will connect to your API.
You need to define how this connection will take place.
Furthermore, it's crucial that you build an OpenAI specification to document your API.
This will serve as a sample for OpenAI to understand the functionality of your plugin, including what it does and what it returns.
Your API must meet the 200-character maximum limit in this specification.
For each API endpoint in the API specification, there is a maximum limit for the parameter description.
After creating an API, you need to run a plugin that generates a Json manifest file in the OpenAI specification.
Then you can connect the plugin via the Chachi PT UI by registering and developing your own plugin or installing an unverified plugin temporarily.
Writing a description is important, as the OpenAI spec provides the model with details about your API.
Therefore, adding the spec file is crucial.
"You are describing the best practices for explaining what your API does and what it returns, including debugging.
Now, let's delve into authentication.
We support different types of authentication, including no auth, service-level, coin-secret, and user-level.
Here are some examples: you could create a simple to-do list, a sports stats program, or a stats API.
Let's say you run a service that provides sports data.
You would essentially have a JSON file that contains your API information and an open AI specification to describe its details."
"You're discussing here the production rate limits, domain verification, manifest, and FAQs.
Regarding the plugin, how does it connect Chachi PT to external apps?
If a user enables a plugin, Chachi PT may send parts of their conversation and their country or state to your plugin.
Also, there are plugin policies, which are detailed in a separate section on plugins.
The plugin manifest must clearly state the description."
Ensure that the plugin's functionality is appropriate and avoid using irrelevant, unnecessary, or deceptive terms.
Do not utilize plugins to circumvent or interfere with safety systems, and refrain from automating conversations with real individuals using pre-programmed messages or simulated human-like responses.
If plugins distribute personal communications or content generated by Chachi PT, they must explicitly indicate that the AI generated the content.
That was the developer documentation.
This is a corrected version of the text:"Um, it's pretty cool stuff.
You can see how they thought through a lot of things, like rolling out plugins, testing them, and increasing user adoption.
They're still working through some of these issues, but they have a good foundation of what these plugins are and how to create, upload, and use them.
Alright, let's go back to OpenAI's..."
In this blog post, we analyzed their documentation and found out that the first plugins have already been created by various companies.
For instance, Expedia has developed a plugin that brings users' travel plans to life.
I assume that this plugin will provide flight information, hotel information, and even allow users to book flights via Expedia.
However, it may redirect users to Expedia's website for final checkout.
That's my assumption regarding hotel bookings.
"And with flights, maybe rent cars too.
That's the same thing with the Kayak.
It's interesting that they have two similar sites, Their Fiscal Notes and Fries.
They enable access to select market-leading real-time datasets for legal, political, and regulatory data information.
Okay, Instacart orders from your favorite local grocery stores.
Now that's interesting because you could basically say, 'Hey, what can I make tonight with carrots, onions, rice, and Chachi Petite gives you a recipe?' and you're like..."
You know, I need potatoes, and then you can have cha-chipsy.
Order potatoes from Instacart for yourself.
Another example is that since chat or GPT-4 is going to be multimodal, you can take a picture of your refrigerator, and then GPT will basically know what's in your refrigerator, what you can make, and what you need to order.
It can order it from Instacart and get it to you at the right time to make your meal.
What the heck?
Why are we making our meals anyway?
I guess until AI or humanoid robots can do it.
It's crazy stuff.
I mean, it's not just instant cars anymore.
Now, we're talking about food delivery services.
It can time the type of food you want and even suggest what to eat based on your previous choices.
After you eat, it can also gather information on what you liked and didn't like.
It could connect to APIs of services like Uber Eats or GrubHub to provide suggestions on where to order from.
You can even figure out what nights you prefer to eat out and exactly what time your food should arrive.
There are lots of interesting stuff here, like Karna shopping that allows you to search and compare prices from thousands of retailers.
The grammar in the given text can be corrected as follows:Online shopping is now interesting too.
You can connect shopping with other events.
For instance, if you are going on a camping trip and need a lot of things that you don't even know about, the AI can tell you what you need and direct you to get those things.
Even better, if you can integrate payments, the AI can buy those things for you and have them delivered to your doorstep.
Milo Family AI gives parents superpowers to manage everything effectively.
"Manic" should be corrected to "Magic." The corrected text would be:"Magic 20 minutes a day.
Speak to learn how to say anything in another language.
Speak with your AI-powered language tutor.
This is cool!
I'd love to see how language learning will be used within the chat chip area that I'm personally working on as well.
We have a shop and another shopping plug-in here, open table, that will help you find restaurants and make reservations.
We also have Wolfram math competition and Zapier.
Zapier is interesting because it allows you to connect with a whole bunch of other apps."
There is a need to fix the grammar in the given text.
Here is the revised version:We have a second layer right here with thousands of more apps that you can connect to through Zapier.
It's really interesting.
Moreover, as we're hosting two plugins ourselves, a web browser and a code interpreter, we've also made the code for the knowledge-based retrieval plugin open-source.
This makes it self-hosted, which any developer can use to augment their information.
So, let's take a look at this retrieval plugin.
It's interesting because let's say you have a bunch of notes.
Can you please provide the original text or context for me to understand the corrections needed?
Thank you.
Creating document embeddings using various vector database providers involves configuring example models and scripts for testing well-known server services.
Let's take a closer look at this interesting feature.
The plugins include chat extensions, and we already know about API endpoints.
The quick start guide explains how to install Python poetry for development, and then proceeds to provide instructions for running the program on your computer.
Some of the material even features videos, which will be helpful to review.
Take a look at some of these videos.
What's in this video?
Okay, there's no audio here.
It says "When were human rights introduced last year?" It says 2022.
Got it.
So it's accessing some type of UN human rights database to retrieve that information as a search engine.
Huh, interesting.
Wow, that's pretty cool.
Okay, I'm getting the picture here.
Let's go back to this retrieval plug-in.
So what I'm thinking is that it doesn't have a ton of information on how this is working, but my hunch is that it will index your files for you.
Yeah, that's my guess.
If you have some type of larger database or different notes or files, Chachi PT is going to let you store or index it, and then be able to quickly access those files, kind of like your own search engine.
Hmm, that's pretty impressive.
Okay, so it says here that we will begin extending public Alpha access to users and developers from our waitlist.
We will prioritize a small number of developers and Chat GPT plus users.
We plan to roll out larger scale access over time.
Just to recap, OpenAI has announced Chat GPT plugins.
This is a huge step in extending the functionality of Chat GPT beyond just being an AI agent into actually performing actions in the real world for you, possibly for hundreds of users.
"And with thousands or tens of thousands of APIs, it's basically a huge app store.
If you think about it, AI can access and superpower its own abilities for you.
So, here's the big announcement.
Let's go ahead and look at an example of how to use Chat GPT Pelicans.
Today, I'm going to show you how you can use Chat GPT to do some simple meal planning.
First, let's head to the plugin store to install the necessary plugins.
Next, let's ask Chat GPT for a restaurant recommendation for Saturday, a recipe for Sunday, the total calorie count, and so on."
First, order the ingredients on Instacart.
Next, use OpenTable to find a great restaurant for Saturday.
For Sunday, find a simple recipe and ask Wolfram Alpha to calculate the calories (862 calories, great!).
Finally, make the shopping list.
To order the ingredients, simply click the link, which will direct you to the Instagram app to finalize the purchase.
Your cart will already be pre-populated.
In summary, that is the overview.
Take a deeper look into what the IRS reveals about these language model plugins today.
While useful for a variety of tasks, they are still limited.
The only information they can learn is from their training data, meaning they have a boxed-in model.
This information can be out of date, which is one of the limitations of chat GPT right now.
I believe their training data is only up until September 2021.
Furthermore, the only thing language models can do out of the box is emit text.
I'm sorry, the text you provided isn't clear.
Can you please provide me with a more specific instruction on what you want me to fix?
Overall, the idea is to have a large language model with a base model that is built on older data.
On top of this, there is a plug-in ecosystem that provides access to the most recent information, as well as personal actions like buying, reserving and going places.
We expect that open standards will unify the ways in which applications expose an AI-facing interface.
We are currently working on an early model.
We are making an attempt at defining such a standard, and we are interested in receiving feedback from developers who are interested in building with us.
Essentially, it is not just one app store, but rather, imagine an app that can connect with multiple AI agents.
Is there a standardized way to develop your API so that it can connect with all of these different AI agents?
Over the coming months, as we learn from deployment and continue to improve our safety system, we plan to iterate on this protocol.
Enable developers using OpenAI models to integrate plugins into their own applications beyond chat with GPT.
This is interesting because let's say you have a developer that's using OpenAI APIs for their own app outside of, let's say, GPT, what OpenAI is saying here is that they plan to open up plugins that you can use on your site as a developer.
So, you can supercharge your own site using this plugin library.
It's really interesting stuff with safety and broader implications of connecting language models to external applications.
Tools introduce new opportunities as well as significant new risks.
Plugins offer the potential to tackle various challenges associated with large language models, including hallucinations, keeping up with recent events, and accessing proprietary information sources with permission.
By integrating explicit access to external data, such as up-to-date information, online code bases, calculations, or custom plug-and-retrieve information, language models can strengthen responses with evidence-based references.
However, there is a risk that bad actors could use these plugins to defraud, mislead, or abuse others.
There are a lot of potential negative outcomes that could occur.
The opening statement suggests that they have something to share or discuss further.
They have implemented safeguards, including red teaming exercises where people attempt to break the system.
Through these exercises, they have discovered ways that prompt injections, fraudulent spam emails, bypassing safety restrictions, and misusing information can occur.
By identifying these vulnerabilities, they can work to fix them.
They also have a research access program and an evaluation framework known as "evalsnip." Overall, this means that they are taking steps to improve the security of their system.
There are some grammatical errors in the given text.
Here's the corrected version:There is a risk, but they are trying to minimize it.
They have a couple more plugins that OpenAI is working on themselves.
One of these is their browsing feature, which allows users to browse the web with GPT.
This is probably the most requested feature by GPT users.
It enables language models to read information from the internet, which expands the amount of content they can discuss.
This goes beyond the training corpus to fresh information.
From the present day onwards, chat can access the internet.
This is like an awakening moment for Chachi, who is here right now.
Of course, Bing already has this functionality through Microsoft, but OpenAI has their own implementation of it through a plug-in.
So, let's take a look at chat gpg with browsing.
It allows the model to research real-time information beyond its trading data.
Let's see how it can help us catch up on current events.
Chat GPT uses the Bing API for searching and a text-based web browser to navigate websites beyond search results.
It can synthesize information from multiple sources to provide a well-informed response.
Through its browsing research, Chat GPT has given us a response supported by two citations.
Each citation is clickable and hoverable, allowing for quick access to the source and verification of claims made by Chat GPT.
With browsing calibrated to browse only when needed, in this query, ChatGPT already knows the answer and correctly chooses not to browse.
Alright, so here's their web GPT plugin, it's a bit clunky for me.
I mean, if you look at this, look at what it's doing!
Here, it's actually searching, clicking on a link, reading the content, searching for another thing, clicking on the other, reading content, and then giving an answer.
So, it's actually physically doing the...
Browsing the web, crawling, and all that stuff on the spot, I think a more interesting implementation would be to keep up-to-date all the time.
This means constantly crawling the web with real-time information, and providing the user with the answer they need right on the spot.
With this, there would be no need for a separate web plugin to conduct physical web searching because the information would always be up-to-date with the current web content.
To me, this would be a better solution.
A much more efficient implementation is required for enabling language and chat models to conduct thorough and interpretable research.
This process can be exciting and scalable for alignment.
However, there are safety considerations to take into account when browsing the internet.
To limit the risks, the web browser and plugin will only be allowed to make requests for pulling information, not posting or pushing it out.
One issue is that it is not submitting information correctly to the website, which is a safety concern.
It excludes transactional operations such as form submissions because it uses the Bing search API.
Microsoft is responsible for vetting the reliability of the websites that its API searches, making it a safe mode to prevent the retrieval of problematic content.
The plugin operates within an isolated service, ensuring that chatbot browsing activities are separate from the rest of the infrastructure.
Additionally, it is configured to honor websites' "robot.txt" files.
If a website does not want Chachi Petite to crawl its site, it can block it using its "robot.txt" file.
Here's the revised text:You could simply say, "Do not crawl, um, and chat.
GPT will honor those requests." Alright, let's look at another plugin by OpenAI.
It says, "Code Interpreter: experimental chat chip model." But you can use Python to handle uploads and downloads.
Interesting!
This extends beyond just coding to actually executing code as well.
Let's see what it says.
"We provide our models with a working Python interpreter in a sandbox, firewall execution environment with some disk space.
Code can be run by our interpreter plugin."
The correct version:The value of a persistent session is seen in the lifespan of a chat conversation and subsequent calls that build on top of each other.
We support the uploading of files to the current conversation workspace and the downloading of the final results of your work.
It's not a full-fledged system, but rather a sandbox with a firewall that allows you to build on top of it and download your final work.
Our goal is to enable our models to use their programming skills to provide a more natural interface to the fundamental capabilities of our computers.
Having access to a very eager junior programmer working at the speed of your fingertips can make entirely new workflows efficient and effortless, while also introducing programming's benefits to new audiences.
This new capability can solve mathematical problems, perform data analysis and visualization, and convert files between formats.
Let's take a look at this as well.
Thank you.
Interesting, so it's basically performing these calculations in real-time with graphing capabilities.
Then, you could instruct Chachi PT to perform various tasks and display different aspects of the graphic with new calculations.
Okay, got it.
But there are some safety considerations to take into account in terms of coding.
They are sandboxing the execution so that AI-generated code doesn't have unintended side effects in the real world.
Essentially, what this means is that if an AI is not sandboxed and unable to execute code in the real world, it could have serious consequences.
"What can the world do right and what is potentially crazy is the fact that if AI becomes highly intelligent and goes through the cycle of self-adaptive learning, it can potentially hack into or study other computer and security systems.
There are many computers and networks out there that are outdated and lack up-to-date security standards.
AI could comb the web to discover vulnerabilities and exploit them."
Even if we save those vulnerabilities for later, there is a lot of mischief and potential harm, including global consequences that can result from AI.
If a malicious actor, even a government, uses AI to carry out such actions, it could be pretty crazy stuff.
We are entering a phase where humans are creating intelligence that is now starting to surpass human intelligence.
This is perhaps one of the most defining moments.
In history, we have never gone through such a completely new door.
What happens when we are no longer the most intelligent people, Deans, or entities in our world?
There are many interesting things; we could use this newfound intelligence for good, creating value, goods, and services, as well as abundance.
However, throughout history, humans have exhibited similar, faulty characteristics of greed and selfishness.
"And there is fighting and war, and a lot of bad stuff has been done.
But if you pair that with super intelligence or intelligence that is just greater than humans, the potential harm can grow even more in the future.
So these are definitely two interesting real possibilities that we need to grapple with.
Alright, onto retrieval.
The open source retriever plug-in, which is the GitHub project that I looked at in the beginning, enables ChatGP to access personal or organizational information."
"Sources with permission allow users to obtain the most relevant document step from their data sources, such as files, notes, emails or public documentation, by asking questions or expressing natural language.
It is an open-source and self-hosted solution.
Therefore, developers can deploy their version of the plugin and register it with Chat CBT.
The plugin uses open embeddings and allows developers to select a vector database for indexing and searching."
Document information sources can be synchronized with databases using web hooks.
This is interesting as it allows for a self-hosted system or plug-in that can be hosted on one's own server.
Users can choose their own database to host, such as Reddit, and index the information hosted in that database.
The API call will be for indexing and answering queries.
I believe the corrected sentence should be:"You can also index your database, but Chat GPT can access your database directly and quickly retrieve the information it needs.
Let's take a look at this demo.
This is the same demo we had before.
If you look at the very beginning, you will see the 'model plugins Alpha', which offers an option to do plugins.
The retrieval plugin allows Chat to search a vector database of content and add the best results to the Chat GPT."
During a session, there are no external effects.
The main risks are data authorization and privacy.
Developers should only add content to the retrieval plugin if they are authorized to use it and can share it in users' chats during GPT sessions.
Now, coming full circle, let's discuss third-party plugins.
Currently, OpenAI is working on their own plugins and there is a growing ecosystem of third-party plugins.
You can choose from different plugins in the plug-in store, and if a plugin is unavailable, you can join a waitlist.
Third-party plugins are described in the manifest file, which we covered in the developer documentation.
Developers need to build the API and create the OpenAI specs and manifest file in order to start a conversation with chat.openai.
"COM users can choose which third-party plugin they would like to enable.
Documentation about the enabled plugins is shown to the language models as part of the conversation context, enabling the model to invoke appropriate plugin APIs as needed to fulfill user intent.
For now, plugins are designed for calling back-end APIs.
We are exploring API plugins that will call client-side APIs as well.
So, if you call a client IDK through CLI, you can have the whole interface of an app or service inside.
Interesting stuff!"
Let's see if this is a new or older method.
Today, I will show you how to use Chat GPT for simple meal planning.
First, let's head to the plugin store to install the necessary plugin.
Okay, let's do this.
For the plugin development experience, I don't think we've covered it yet.
In this clipboard, I will show you just how easy it is to build a plugin and add it to Chat GPT.
We will actually use Chat GPT to write our plugin for us.
I have a prompt here that will work.
A plugin consists of basically three things: an HTTP server, an open API spec that describes the server's API, and a manifest file, which we will hear more about in a second.
While Chat GPT is writing our plugin code, let's start a code sandbox where we will host our plugin.
I asked Chat GPT to write my plugin using FastAPI and Uvicorn, so I will add those to the requirements file and restart the sandbox so that the requirements get installed.
While that's happening, let's look at what goes into a plugin.
The "manifest" file is a JSON file.
It contains simple metadata that tells ChatGPT how to display the plugin to the user and how to describe it to the model.
In this example, we can see that the plugin's name will be "ToDo Demo" and that the model will recognize it as an app for managing a user's to-dos.
The file also includes other basic metadata such as a logo URL and a contact email address.
Let's add this manifest data to our CodeSandbox.
It appears that ChatGPT is almost finished.
Writing the code for our plugin.
Let's copy it and add it here as well.
Let's quickly look at the code.
We don't want to run model-generated code without double-checking it.
So, looking this over, this is a simple and fast API HTTP server with a few routes: a route to create a to-do, a route to list my to-do's, to get a particular to-do, to delete a to-do, and so on.
This looks great!
Let's restart the server.
Looks like our server is running, and we see the server is hosting our manifest at this URL.
Chachi PT knows when you give it.
The domain where a plugin is hosted is searched for the Manifest file at a specific URL.
Once it is located, we are ready to add our plugin to ChatGPT.
Based on the domain provided, ChatGPT finds the Manifest file and the open API spec, downloads them, and locates our demo app.
Next, we can install the plugin as a user of ChatGPT.
Now when I ask ChatGPT to add a to-do for me, it can follow my instructions using the plugin.
If I revisit ChatGPT later and start a new conversation, I can still ask ChatGPT to use the plugin.
Please find below the corrected text:"List my to-do's.
Thanks, Chachi PT!
Huh, interesting.
So, we just went through the whole experience - we went to the documentation earlier, but creating the API, creating the Json file, uploading it, and registering it in their plug-in ecosystem store - impressive stuff.
We're working to develop plugins and bring them to a broader audience.
We have a lot to learn, and with the help of everyone, we hope to build something that is both useful and safe.
Alright, so acknowledgments - these are the folks working on this."
And, yeah, so overall, this is really interesting stuff from OpenAI.
They've put a lot of work into this, as you can tell, thinking through how to set up a whole ecosystem of plugins, basically app functionality that extends the chat GPT Beyond just beyond the browser into a whole host of things.
I mean, you could probably play games inside Chachi PT, but it's not just inside Japan.
They're talking about extending it outside of Chachipi, where other developers who access their OpenAI APIs can add plugins.
Users can also access a plugin library or ecosystem in their apps.
Essentially, if they have another app that connects to OpenAI, it can access plugins too.
Additionally, users can add plugins to their own apps that OpenAI can access.
It's similar because OpenAI accesses its chat service to access plugins, their data, and their ability to execute actions, all while providing users with useful information.
Overall, I am super impressed.
It will be interesting to see how this rolls out, what the first use cases are, and what the future holds.
We are on the cutting edge of building intelligence that surpasses humans and extending that capability into a myriad of different things.
We are witnessing this unfold right before our eyes.
I hope this has been helpful.
We'll see you in my next video.
Thanks.
'IT 인터넷 > 일반' 카테고리의 다른 글
나이 들수록 조심해야 하는 것, 사생활을 말하지 마라 | 항상 비밀로 지켜야 할 6가지 | 플라톤 인생명언 | 말할수록 손해 | 조언 | 철학 | 삶의 지혜 | 오디오북 :: ChatGPT 정리 (0) | 2023.03.24 |
---|---|
창업 1달만에 초보 대표가 대박 스토어를 만들어낸 과정 (하루 루틴, 목표 설정 방법 모두 공개) :: ChatGPT 정리 (0) | 2023.03.24 |
시작한지 7일만에 자동화 수익 30만원 완성했음 | AI를 이용한 수익화 | 주제 선정하기 :: ChatGPT 정리 (0) | 2023.03.24 |
옵저버블 플러터: gRPC :: ChatGPT 정리 (0) | 2023.03.24 |
GPT-4 프롬프트 엔지니어링: 이것이 중요한 이유! :: ChatGPT 정리 (0) | 2023.03.24 |