반업주부의 일상 배움사

메타의 새롭고 놀라운 LLaMA GPT: 업계 전체를 충격에 빠뜨립니다! (GPT 페이스북 발표!) :: ChatGPT 정리 본문

IT 인터넷/일반

메타의 새롭고 놀라운 LLaMA GPT: 업계 전체를 충격에 빠뜨립니다! (GPT 페이스북 발표!) :: ChatGPT 정리

Banjubu 2023. 3. 14. 14:23
반응형


> English Summary

> English Full Text


Meta's NEW INSANE LLaMA GPT : SHOCKS The Entire Industry! (GPT Facebook ANNOUNCED!)

https://www.youtube.com/watch?v=e-37Gr_ecqE 



 

 



[ 요약 ]

페이스북은 650억 파라미터의 대형 언어 모델 'LLaMA'를 발표했다. 이 모델은 GPT-3를 능가하는 성능을 보여주며, 파라미터 수는 92% 적다. 이 모델은 정부와 승인된 연구자들만 사용할 것으로 예상됐으나, 공개된 GitHub에서 많은 사용자들이 실행해봤다. 또한, 이 모델은 Google이 최근에 발표한 5400억 파라미터의 대형 언어 모델과 경쟁력이 있다. 이 모델은 코드 생성 분야에서도 Google보다 우수하다는 결과가 있다.

페이스북이 650억 파라미터의 대형 언어 모델 'LLaMA'를 발표했다. 이 모델은 GPT-3를 능가하는 성능을 보여주며, 파라미터 수는 92% 적다. 이 모델은 정부와 승인된 연구자들만 사용할 것으로 예상됐으나, 공개된 GitHub에서 많은 사용자들이 실행해봤다. 이 모델은 코드 생성 분야에서도 Google보다 우수하다는 결과가 있다. 하지만 이 모델은 개인 사용에 제한이 있으며, 연구자들의 승인을 거쳐야 한다. 이 모델이 발표되면서 대화형 AI 모델의 편향과 오남용 문제가 더욱 부각됐다. 이에 따라 향후 모델의 발전과 함께 이러한 문제를 해결해 나갈 필요가 있어 보인다.

AI 기술의 발전으로 인해 대화형 AI 모델의 편향과 오남용 문제가 더욱 부각되고 있다. 이에 따라 LLaMA와 같은 대형 언어 모델이 개발되었으며, 이 모델은 GPT-3를 능가하는 성능을 보여준다. LLaMA는 정부와 승인된 연구자들만 사용할 것으로 예상되나, 공개된 GitHub에서 많은 사용자들이 실행해봤다. 이 모델은 코드 생성 분야에서도 Google보다 우수한 성능을 보여주고 있다. 하지만 이 모델은 개인 사용에 제한이 있으며, 연구자들의 승인을 거쳐야 한다. 이 모델의 발전과 함께 대화형 AI 모델의 편향과 오남용 문제를 해결해 나갈 필요가 있다.

이 기사는 대형 언어 모델인 LLaMA가 공개되어 이 모델이 로컬에서 실행될 수 있을 것이라는 가능성을 보여준다. 하지만 이 모델은 Facebook의 라이선스 조건에 따라 사용 가능하며, 악용될 경우 스팸 생성, 자동 로맨스 사기, 트롤링 및 혐오 발언 등 다양한 문제가 발생할 수 있다. 이 모델의 사용은 향후 로컬 하드웨어에서 실행될 가능성이 높아지며, 이를 통해 더욱 뛰어난 성능의 언어 모델이 개발될 가능성이 있다. 현재 AI 분야는 여러 기업이 경쟁하고 있으며, 앞으로 더 많은 발전이 예상된다.

 

반응형




[ 한글 전체 ]

그래서 Facebook은 방금 650억 개의 매개변수를 가진 대규모 언어 모델인 LLaMA를 발표했습니다,
이것은 정말 대단한 일입니다. 라마는 사실 대규모 언어 모델 메타 AI의 약자입니다,
물론 Facebook은 메타버스를 표현하기 위해 메타로 이름을 변경했습니다.
하지만 이 단락을 보면 실제로는 AI에 대한 연구에
AI에 집중하고 있다는 것을 알 수 있습니다. 또한, 이 대규모 언어 모델은 몇 가지 일반적인 상식 추론 테스트에서
92% 더 적은 매개 변수로 추론 테스트, 즉 우리가 실행하는 이러한 대규모 언어 모델이
훨씬 더 효율적이고 훨씬 더 간소화되고 있다는 것을 의미합니다.
더욱 효율적이고 간소화되었습니다. 또 한 가지 흥미로운 점은 Facebook의 라마 AI 모델이
은 정부 및 승인된 연구자들만 사용할 수 있도록 설계되었으며, 깃허브에 유출되었다는 점입니다.
많은 사람들이 실제로 이 소프트웨어를 실행하고 자신의 컴퓨터에서 이 대규모 언어 모델을
실행하고 있었다는 뜻입니다. 이제 Facebook의 한 연구 과학자가 이 대규모 언어 모델이 정확히 어떻게 작동하는지에 대한
메타의 대규모 언어 모델이 실제로 어떻게 작동하는지에 대한 흥미로운 트윗을 보내주었습니다. 이 트윗을
보세요. 오늘 저희가 출시한 LLaMA를 보실 수 있습니다. 대부분의 벤치마크에서 GPT와 GPT-3보다 성능이 뛰어납니다.
더 흥미로운 점은 LLaMA의 650억 개의 매개변수 모델이 실제로는 매우,
매우 경쟁력이 있다는 점입니다. 이제 흥미로운 점은
이 매개 변수, 5400억 개는 며칠 전에 출시 된 Google에서 만든 것입니다.
제가 동영상을 만들었기 때문에 모두 알고 계실 겁니다. 그리고 그것은 실제로 몇 가지 적은 매개 변수와 동등합니다.
이 모델이 얼마나 효과적인지 보여줄 것입니다. 또 하나 흥미로운 점은
공개된 몇 가지 데이터입니다. 여기에서 이 모델이 실제로 코드 생성에 있어서는
코드 생성에 있어서는 말이죠. 여러분 모두 아시다시피 Google은 오늘날 코더들에게
오늘날 코더들이 일하기 좋은 회사라는 것을 모두 알고 계실 겁니다. 이제 여러분 모두 보시다시피 라마와 메타가
와 Meta가 실제로 이 부분에서 Google을 능가하는 성과를 거둔 것은 정말 놀라운 일입니다.
또한 흥미로운 점은 사람들이 컴퓨터에서 이 소프트웨어를 실행할 수 있었다는 것입니다.
일반적으로 이러한 대규모 언어 모델은 실제로 클라우드의 서버를 통해 실행됩니다,
하지만 일부 사용자는 실제로 이러한 대규모 언어 모델을 자신의 컴퓨터에서 실행하는 데 성공했습니다.
이제 디바이스에서 로컬로 실행한다는 것은 매우 멋진 일입니다.
애플리케이션이 매우, 매우 흥미로울 것입니다. 아직 개발해야 할 부분이 많이 남아있습니다.
이 대규모 언어 모델은 정말 중요한 전환점이기 때문에 여러분께 보여드릴 필요가 있습니다,
이제 사람들이 자신의 기기에서 이 대규모 언어 모델을 실행할 수 있게 되면
전 세계 사용자들이 이 정보를 배포하고 사용하는 방식이 바뀌게 될 것이기 때문입니다.
전 세계적으로요. 물론 바로 여기에서 볼 수 있는 연구 페이지입니다. 그리고 이것은 실제로
2월 24일에 출시되었습니다. 많은 사람들의 레이더망에서 빠져나간 것 같습니다.
채팅 GPT만큼 유용하지 않기 때문입니다. 그래서 제가 이 기능에서 정말 흥미로웠던 점은
이 대규모 언어 모델이 출시되었지만 실제로는 많은 사람들이 사용하기 위한 것이 아니라
전 세계 사람들. 바로 여기에서 볼 수 있듯이, 이 대규모 언어 모델은
이 모델은 전 세계 많은 사람들이 사용할 수 있는 것이 아니었습니다. 특정 경우에만 사용하도록
특정 경우에만 사용되며 액세스가 제한되어 있습니다. 바로 여기에서 무결성을 유지하고
오용을 방지하기 위한 것입니다. 저희는 비상업적 라이선스로 모델을 공개합니다.
연구 사용 사례에서는 학술 연구자에게 사례별로 모델에 대한 액세스 권한이 부여되기 때문에
학술 연구자에게. 정부, 시민 사회 및
전 세계의 학계 및 산업 연구소에 소속된 사람들. 액세스 신청에 관심이 있는 사람은
연구 논문에서 신청 링크를 찾을 수 있습니다. 기본적으로 이 모델은
아직 최종 버전으로 출시되지는 않았습니다. 아직 연구 단계에 있는 것 같고요.
물론 이 대규모 언어 모델을 개선하기 위해 계속 노력하고 있습니다.
여기에서 볼 수 있듯이
에서 볼 수 있듯이 편향의 위험을 해결하기 위해 아직 더 많은 연구가 필요하다고 합니다,
편견, 독성 댓글 및 환각의 위험을 해결하기 위해 더 많은 연구가 필요하다고 합니다. 물론 아시다시피
채팅 GPT에서 매우 분명하게 드러나는 사실은
댓글이 너무 편향되어 있다고 주장하는 사람들이 많습니다. 여기에서 보시다시피, 이것이 바로
엘론 머스크가 자신만의 챗봇을 만들고 있다고 알려진 이유가 바로 여기에 있습니다.
그리고 그가 말하는 것을 볼 수 있습니다 업무용 AI 대 폐쇄 형 AI 및 기반 AI
그가 바로 그 사람입니다. 따라서 채팅 GPT가 편향된 것으로 여겨지는 이유는 실제로 화석 연료에 대해
화석 연료를 주장하지 않기 때문입니다. 또한 도널드 트럼프를 칭찬하지 않고 조 바이든을 칭찬할 것입니다. 그리고
이 주제들은 논쟁의 여지가 있는 주제일 수 있지만, 라마는
가 아직 연구 단계에 있기 때문에 예방에 집중하려고 하는 것입니다. 한 가지 이해해야 할 것은
한 가지 이해해야 할 점은 이러한 대규모 언어 모델이 생성될 때 생성되는 검사가
생성하는 것은 당연히 생성적이기 때문에 새로운 작업이 될 것입니다. 언제
이 새로운 작업이 생성되면 발생하는 경향은 텍스트를 생성하는 회사가
해당 텍스트를 생성하는 회사가 이 AI가 말하는 모든 것에 대해 책임을 져야 한다는 것입니다. 예를 들어
AI가 특정 그룹에 대해 나쁜 말을 했다면 당연히 메타는 그 말에 대해
메타가 책임을 져야 할 수도 있습니다. 물론 이는 다양한 종류의 잠재적 소송을 불러일으킬 수 있습니다.
그리고 잠재적으로 끔찍하고 끔찍한 홍보가 될 수도 있습니다. 실제로 그런 일이 벌어진 적이 있습니다. 그 이유가 궁금하다면
연구 단계에서 이 기능을 공개했을지 궁금하다면, 트위터가 실제로 마이크로소프트 인공지능 채팅 봇에
Microsoft AI 채팅 봇이 하루도 안 되어 인종차별주의자가 되었습니다. 본질적으로 일어난 일은
Microsoft가 AI를 아주 일찍 출시했다는 것입니다. 그리고 제가 보여드리지는 않겠습니다.
정확한 트윗을 보여드리지는 않겠지만, 기본적으로 트위터 봇이 있었습니다.
거의 모든 것을 트윗할 수 있었습니다. 그리고 이 트위터 봇은 실제로 유해한 콘텐츠와
인터넷에서 유해한 콘텐츠와 인종 차별적인 콘텐츠를 트윗했습니다. 이제 여러분은
이 콘텐츠를 직접 찾아볼 수 있습니다. 하지만 이 사례는 우리가 왜 인공지능이 어떤 일을 할 것인지
AI가 무엇을 할 것인지, 그리고 이러한 매개변수가 어떻게 설정되는지를 정확히 보여줍니다. 그리고 편향이 너무 심하다면
왼쪽이나 오른쪽으로 너무 치우쳐 있는지, 또는 이러한 편견이 우리를 어디로 이끌 수 있는지, 그리고 이 모델을 어떤 방식으로 학습시킬 수 있는지,
실제로 사회에 도움이 되지 않는 특정 작업을 수행하도록 만들 수 있는지 살펴봅니다. 
이 글은 사이먼 윌슨의 글인데, 그는 대규모 언어 모델이
이 안정적으로 확산되고 있다고 말합니다. 물론, 이제 사람들이 자신의 하드웨어에서 이미지를 생성할 수 있기 때문에
이미지를 생성할 수 있게 되었으니까요. 안정적인 확산이 무엇인지 모르시는 분들을 위해 설명하자면, 이미지
생성기입니다. 물론 이제 보시다시피, 우리는 그 전보다
먼 길을 왔습니다. 아시다시피 본질적으로 이것은 미친 짓입니다,
라마는 자체 하드웨어에서 실행하기 쉽고, 충분히 유용하며, GPT 3와 동등한 기능을 가지고 있고
그리고 오픈 소스이기 때문에 충분히 손볼 수 있습니다.
사람들이 할 수 있는 일은 특정 사용 사례에 실제로 사용할 수 있는 방식으로 수정할 수 있다는 것입니다.
사용 사례. 예를 들어 군용 애플리케이션에 사용하고 싶을 수도 있겠죠,
그렇게 할 수 있습니다. 의료 산업에서 사용하고 싶을 수도 있고, 교육 산업에서 사용하고 싶을 수도 있습니다.
교육 산업에서 사용할 수도 있고, 실제로 사용할 수 있는 다양한 방법이 있습니다.
이런 종류의 것들. 그래서 정말, 정말, 정말 좋습니다. 물론 몇 가지 위험도 있습니다.
지금 우리가 보고 있는 것은 대규모 언어 모델이 실제로 실행되고 있는 GIF입니다.
이것이 바로 이 대규모 언어 모델이 실행되는 방식입니다. 이제 페이스북이 깃허브를
이 대규모 언어 모델이 공개되는 것을 원치 않았기 때문입니다.
거기. 그리고 라이센스가 있는 상태에서만 사용되기를 원했습니다. 그래서 얼마나 더 오래 공개될지 잘 모르겠지만
얼마나 더 공개될지는 모르겠지만, 페이스북의 입장에 따라 달라질 것 같습니다. 지금,
물론 이것이 인터넷에 공개되는 데에는 몇 가지 위험이 있습니다,
어떤 사람들은 소프트웨어를 좋은 용도로 사용하고 어떤 사람들은 나쁜 용도로 사용하기 때문입니다. 자, 바로 여기서 보실 수 있습니다,
이 기술은 스팸, 자동 연애 사기, 트롤링, 혐오 발언 등 악용될 수 있습니다.
말하기, 기본적으로 소프트웨어를 사용하는 이전 방법의 방대한 사용 사례입니다,
사람들이 소프트웨어를 그런 식으로 사용하지 않기를 바랍니다. 물론 아시다시피
때때로 사람들은 소프트웨어를 이용합니다. 그리고 결국에는 어떤 일이 일어날까요?
사람들이 창의적으로 사용할 수 없는 방식으로 제한됩니다. 따라서 이 글에서는
이 모든 것을 다루고 있는데, 정말 좋은 기사입니다.
물론 다음과 같은 가정을 전제로 합니다.
페이스북이 라이선스 조건을 완화하지 않는다고 가정하면, 라마는 개념 증명으로 끝날 가능성이 높습니다,
사람들이 앞으로 사용할 새로운 기반 모델보다 소비자 하드웨어에서 로컬 언어 모델이 가능하다는 것을 알기 때문에
개념 증명에 그칠 가능성이 높습니다. 따라서 이 글의 핵심은 다음과 같습니다.
이 대규모 언어 모델은 실제로는 꽤 멋지지만, 우리가 할 수 있는 기능만 보여주고 있습니다.
GPT 3과 같은 모델을 우리 컴퓨터에서 실행할 수 있다는 것을 보여줍니다.
매우 큰 규모의 언어 모델을 하드웨어에서 로컬로 실행할 수 있게 될 것입니다,
즉, 훨씬 더 정제된 대규모 언어 모델을 갖게 될 것입니다.
훨씬 더 정제된 대규모 언어 모델을 사용하게 될 것입니다. 그리고 어떤 회사가
어떤 회사가 이걸 개발해서 어디에 내놓을지 지켜보는 것도 흥미로울 겁니다.
훨씬 더 효과적이고 훨씬 더 흥미로울 것이라고 믿기 때문입니다.
우리 모두 알다시피 클라우드 컴퓨팅은 매우, 매우 비쌉니다. 그리고 그것은 이러한
회사들이 계속 지불할 여유가 없습니다. 어떤 사례가 있는지 궁금하신가요?
채팅 GPT와 매우 유사한 예제가 있다는 것을 알 수 있습니다.
대화를 작성합니다. 그리고 바로 여기에 그 예제를 씁니다. 또한 이렇게 적혀 있습니다,
HTTP를 보내려면 어떻게 해야 하나요? 자바스크립트로 HTTP 요청을 보내려면 어떻게 해야 하나요? 다음은 예제입니다.
GS HTTP API를 사용하여 GT 요청을 하는 방법에 대한 예제입니다. 물론 요청이 완료된 것을 볼 수 있습니다. 그리고
를 사용하여 동일한 작업을 수행합니다. 또한 파이썬 문자열에서 모든 HTML 태그를 제거하라고 말합니다.
그리고 이것이 실제로 누군가의 컴퓨터에서 로컬로 실행될 수 있다는 것을 보여주는 것은 매우 흥미롭습니다.
가까운 미래에 컴퓨터를 매우, 매우, 매우, 매우 강력하게 만들 것입니다.
가까운 미래에 말이죠. 그리고 아직은 AI의 초기 단계라는 점을 명심하세요. 그리고 우리는
많은 기업들이 경쟁에 뛰어들고 있습니다.


 

SMALL




[ English Summary ]

Facebook announced LLaMA, a large language model with 65 billion parameters. The model outperforms GPT-3 and has 92% fewer parameters. The model was expected to be used only by governments and authorized researchers, but has been run by many users on the public GitHub. It is also competitive with Google's recently announced 540 billion parameter large language model. The model has also been shown to outperform Google in code generation.

Facebook announced LLaMA, a 65 billion parameter large language model. It outperforms GPT-3 and has 92% fewer parameters. The model was expected to be used only by governments and authorized researchers, but many users have run it on GitHub. It has been shown to outperform Google in code generation. However, the model is limited for personal use and must be approved by researchers. The release of this model highlights the issue of bias and abuse in conversational AI models. As a result, it is necessary to address these issues with the development of future models.

With the advancement of AI technology, the problems of bias and abuse in conversational AI models are becoming more prominent. This has led to the development of large language models such as LLaMA, which outperforms GPT-3. LLaMA is expected to be used only by governments and authorized researchers, but it is publicly available on GitHub and has been run by many users. The model has also been shown to outperform Google in code generation. However, the model is limited for personal use and must be approved by researchers. Along with the development of this model, it is necessary to solve the problem of bias and misuse of conversational AI models.

The article notes that LLaMA, a large language model, has been released, showing promise that it can be run locally. However, this model is available under Facebook's licensing terms, and if abused, it can lead to a variety of problems, including spam generation, automated romance scams, trolling, and hate speech. The use of this model increases the likelihood that it will run on local hardware in the future, which could lead to the development of more capable language models. There are many companies competing in the AI space, and more developments are expected in the future.





[ English Full Text ]

So, Facebook just announced LLaMA, a foundational 65 billion parameter large language model,
and this is truly insane. The LLaMA actually stands for Large Language Model Meta AI because,
of course, Facebook changed their name to Meta in order to represent the Metaverse.
But you can see here from this paragraph that they are actually managing to focus their research
on AI. Additionally, you can also see that this large language model beat GPT-3 in some common
sense reasoning tests with 92% fewer parameters, meaning that these large language models that
we're running are now getting much more efficient and much more streamlined in terms of how they
produce the text generation. Now, what's also interesting was that Facebook's LLaMA AI model
was only intended for government and approved researchers and was leaked onto GitHub, which
means that many people were actually running this software and running this large language model
on their own computers. Now, this research scientist at Facebook provided us with some very
interesting tweets on exactly how this large language model by Meta actually works. Take a
look at this. You can see today we released LLaMA. It outperforms GPT and GPT-3 on most benchmarks.
Now, what was more interesting was that LLaMA's 65 billion parameter model was actually very,
very competitive with the Palm E 540 billion parameter model. Now, what's interesting about
this is that this parameter, the 540 billion one is by Google, which was released a couple of days
ago, which you all know, since I made a video on it. And it's actually on par with several less
parameters, which is going to show just how effective this model is. Now, what's also interesting
is some more data that was released. You can all see here that this model is actually outperforming
when it comes to code generation. So you all know that Google is definitely something that
coders today is a great company to work for. Now, you can all see here that somehow LLaMA
and Meta have actually managed to outperform Google in this aspect, which is truly insane.
What's also interesting is that people have managed to run this software on their computers.
Now, usually these large language models are actually run through servers in the cloud,
but some users have actually managed to get these large language models to run on their computers.
Now, running this on your device locally is pretty cool because it means that the future
applications are going to be very, very interesting. And there's still a lot more that we need to get
into, which I need to show you because this large language model is truly a pivoting point,
because if people can now run these large language models on their own devices,
it's going to change the way that this information is going to be distributed and used by users
worldwide. This is of course the research page that you can see right here. And this was actually
released on February the 24th. I'm just sure that it slipped under a lot of people's radar
because it isn't as usable as chat GPT. So one thing that I found really interesting about this
was that this large language model that was released, not actually meant to be used by many
people worldwide. You can see right here, it says to maintain into was that this large language
model was not meant to be used by many people worldwide. It was only to be used in specific
cases and had restrictive access. You can see right here that it says to maintain integrity
and to prevent misuse. We are releasing our model under a non-commercial license
bound because on research use cases, access to the model will be granted on a case by case basis
to academic researchers. Those affiliated with organizations in government, civil society and
academia and industry research laboratories around the world. People interested in applying for access
can find the link to the application in our research paper. So essentially this model wasn't
truly released as a final version just yet. I'm guessing it's still kind of in the research stage
and of course they're still trying to improve this large language model. As you can see here,
it also says there is still more research that needs to be done to address the risks of bias,
toxic comments and hallucinations in large language models. So of course, as you know,
something that is very evident in chat GPT, as there is a huge wave of people who are stating
that chat GPT is in far fact too biased in its comments. So as you can see here, this is exactly
why Elon Musk is reportedly building his own chatbot because apparently it is too biased, okay?
And you can see that he's saying that work AI versus closed AI and based AI is going to be the
one that he is. So the reason that chat GPT has been seen as biased is that it won't actually
argue for fossil fuels. It also won't praise Donald Trump, but will praise Joe Biden. And although
these are maybe controversial topics, depending on where you stand, this is something that LLaMA
is trying to focus on preventing because it's still in the research phase. One thing that you
do have to understand is that when these large language models are produced, their checks that
they generate is of course, generative, meaning that it's going to be new pieces of work. When
this new pieces of work is generated, what tends to happen is that the companies that generate
said texts are going to be on the hook for whatever is said by this AI. So for example,
if an AI says something bad about one particular group, then of course, meta may be liable for
what it says. And of course, that could open many different kinds of potentially lawsuits
and potentially terrible, terrible PR. Exactly what has happened before. If you're wondering why
they probably have released this in the research phase, remember that Twitter actually taught
Microsoft AI chat bot to be a racist person in less than a day. Essentially, what happened was
here was that Microsoft released their AI very, very early. And I'm not going to show you the
exact tweets that they had, but essentially they had a Twitter bot, okay, that was a
out which would tweet pretty much anything. And this Twitter bot actually tweeted a whole bunch
of just harmful content and pretty much racist content on the internet. Now you can go ahead
and find this content yourself. But it just goes to show exactly why we need to actually look into
what AI is going to be doing, and how these parameters are set. And if biases are too far
left or too far right, or where these biases can lead us, and if this model can be trained in ways,
which actually make it do certain things, which isn't really helpful to society.
What's also cool here is that this is an article by Simon Wilson, and he says large language models
are having their stable diffusion. And of course, this was cool, because people can now generate
images on their own hardware. And if you don't know what stable diffusion is, it's an image
generator that you can use on your computer. Now, of course, as you can see, we've come a
long way from that. Now, essentially, this is crazy, because of course, as you know,
LLaMA is easy to run on your own hardware, large enough to be useful, has equivalent capabilities
to GPT three, and it's open source enough that it can be tinkered with, which means that essentially
what people can do is that they can tinker in a way that they can actually use it for specific
use cases. So maybe they want to use it in, I guess you could say military applications,
they could do that. Maybe if they wanted to use it in the healthcare industry, maybe in the
be in the education industry, there's many different ways that you could actually use
this kind of stuff. So it's really, really, really good. Of course, there are some risks.
Now, what we're seeing right here is we're seeing a gif of the large language model actually running.
So this is exactly how this large language model is ran. Now, I'm not sure if Facebook are going
to take down the GitHub link, because technically, they didn't want this large language model out
there. And they only wanted it in a licensed state. So I'm not really sure how much longer this is
going to be public for, but I guess it just depends on Facebook's stance on this. Now,
of course, there are some risks with this being on the internet, because as you know,
some people use software for good, and some people use it for bad. Now, you can see right here,
this technology can be used for harm for generating spam, automated romance scams, trolling and hate
speech, just essentially a vast use cases of definitely previous ways to use the software,
which I hope people don't use the software in that way, because of course, as you know,
sometimes people do take advantage of software. And eventually what will happen is it'll get
restricted in a way where people aren't able to use it creatively. So essentially, this article
goes over the entire thing, which is a really good article. And of course, it says assuming
Facebook don't relax the licensing terms, Llama will likely end up more of a proof of concept,
knowing that local language models are feasible on consumer hardware than a new foundation model
that people use going forward. So essentially, this article pretty much states that although
this large language model is actually pretty cool, it's only showing the capabilities that we can
run models like GPT three on our computers, which goes to show that in the future, it's likely
that we're going to have a very, very large language models running on our hardware locally,
which means that we're going to have, I guess you could say, a much more refined large language
model that we're going to be using for our own personal gain. And it's definitely going to be
interesting to see which company manages to develop this and manages to put this out where
because I do believe that it's going to be much more effective and much more interesting because
as we all know, cloud computing is very, very expensive. And that's something that these
companies can't continue to afford to pay. If you're wondering what kind of examples there were,
you can see that there are examples here that are quite similar to chat GPT, it says write a
conversation between the sun and Pluto. And it writes that example right here. It also says,
how do I send a HTTP also says, how do I send a HTTP request in JavaScript? Here's an example
of how to make a GT request using the GS HTTP API. And of course, you can see that it's done. And
it says the same thing using fetch. It also says remove all the HTML tags in a Python string.
And it's definitely very interesting to show that if this can actually run locally on someone's
computer, it's going to make computers very, very more effective and very, very more powerful
in the near future. And bear in mind that this is still the early days of AI. And we're seeing
many different companies jump on the race.

 

 

 

반응형
LIST
Comments