반업주부의 일상 배움사

마이크로소프트의 새로운 미친 GPT 4가 업계 전체를 충격에 빠뜨립니다! (GPT가 방금 발표되었습니다!) :: ChatGPT 정리 본문

IT 인터넷/일반

마이크로소프트의 새로운 미친 GPT 4가 업계 전체를 충격에 빠뜨립니다! (GPT가 방금 발표되었습니다!) :: ChatGPT 정리

Banjubu 2023. 3. 12. 22:39
반응형


> English Summary

> English Full Text


Microsoft's NEW INSANE GPT 4 SHOCKS The Entire Industry! (GPT Was Just ANNOUNCED!)

https://www.youtube.com/watch?v=jTcxjDE5PdY 



 

 



[ 요약 ]

미국 마이크로소프트가 최근 GPT4에 대한 소문을 받으면서 인공지능 분야에서 더욱 앞서갈 것으로 예상되고 있다. 
GPT4는 이미 자연어를 이해하고 있기 때문에 현재의 AI 기술에서 한 걸음 더 나아가는 것으로 알려졌다. 

이번에는 비디오 뿐만 아니라 이미지와 음성까지도 이해할 수 있는 멀티 모듈 모델을 소개하게 된다. 
이에 대한 루머도 돌고 있지만, GPT4의 파라미터가 100조 이상인 것으로 알려졌다. 
마이크로소프트는 2023년 3월 초에 Cosmos 1을 출시했는데, 이미지 분류, 이미지 내용에 대한 질문에 대한 답변, 자동 라벨링, 문자 해상도, 음성 생성 작업 등을 수행하는 멀티 모듈 언어 모델로, GPT4는 Cosmos 1보다 더욱 진보된 기술을 제공할 것으로 예상된다. 

또한 GPT4는 모든 언어를 지원하며, 독일어로 질문을 받아 이탈리아어로 대답하는 것도 가능하다. 
이번에 논문이 발표된 것을 통해 GPT4의 입력과 출력이 어떻게 이루어지는지 여러 예시를 들어 설명하고 있다. 
이러한 기술은 인공지능 기술이 얼마나 발전하고 있는지를 보여주는 것이라는 평가도 있다.

 

 

반응형




[ 한글 전체 ]

Microsoft의 ChatGPT가 방금 발표되었으므로 다음 주에 GPT4를 소개할 예정입니다.
완전히 다른 가능성을 제공하는 다중 모듈 모델을 소개할 예정입니다.
예를 들어 동영상입니다. 이 기계들은 이미 자연어를 이해하며
다음 단계로 나아가고 있다는 것을 바로 여기서 확인할 수 있습니다.
이제 GPT4에 대해 100조 개가 넘는 매개변수가 있다는 소문은
일부 사람들은 소문이라고 말하고 있지만이 이미지가 정확히 어디서 왔는지는 모르겠습니다.
이미지가 어디에서 왔는지는 정확히 모르겠지만, 사실이라면 AI가 얼마나 빠르게 발전할지
AI가 얼마나 빠르게 발전할지 미치게 될 것입니다. 또 하나 매우 흥미로운 것은 마이크로소프트의 코스모스 1입니다.
여기에는 미국에서 잘 알려지지 않은 내용이 나와 있습니다.
Microsoft가 2023년 3월 초에 코스모스 1이라는 다중 모듈 언어 모델을 출시했다는 것입니다.
그래서 그들은 사전 학습된 모델을 다양한 테스트에 적용하여 좋은 결과를 얻었다고 합니다.
이미지 분류, 이미지 콘텐츠에 대한 질문에 대한 답변, 이미지의 자동화된 라벨링,
광학 텍스트 해상도 및 음성 생성 작업. 예를 들어, 시각적 시각 추론,
중간 단계로 언어를 사용하지 않고 이미지에 대한 결론을 도출하는 것이 핵심인 것 같습니다.
그리고 GPT4는 세 번째 모달리티를 추가하기 때문에 코스모스 1보다 더 발전했다고 합니다,
비디오와 사운드 양식을 포함하는 것으로 보입니다. 그래서 이것은 꽤 미치게 될 것입니다.
GPT에서 다양한 버전의 콘텐츠를 제공받게 될 것입니다. 여정 중간보다
더 좋을까요? 달리보다 더 좋을까요? 안정적인 확산보다 더 좋을까요?
저희도 모르겠습니다. 또한 GPT4는 모든 언어에서 작동하는 것으로 보입니다,
독일어로 질문을 받으면 이탈리아어로
이탈리아어로. 그래서 이것은 훨씬 더 효과적일 것입니다. 마이크로소프트가 인공지능 경쟁에서
AI 경쟁에서 승리하고 있는 것 같습니다. 하지만 우리가 보고 있는 것은 현재로서는
발표는 없었지만 Azure Open AI가 구체적으로 언급되었습니다.
물론 구글이 경쟁 기술을 자체 검색 엔진에 통합하여
경쟁 기술을 자체 검색 엔진에 통합하여 Microsoft를 따라잡기 위해 고군분투하고 있음을 알 수 있습니다,
주가가 폭락했습니다. 여기에서 GPT4가 정확히 무엇이라고 주장되는지
정확히 분석하는 논문을 먼저 살펴볼 수 있습니다. 이것은 코스모스 1이며, 기본적으로 설명하자면
멀티모달, 더 큰 언어 모델입니다. 여기에는 몇 가지 설명이 나와 있고
입력과 출력의 몇 가지 예시를 통해 GPT4가 어떤 모습일지 정확히 알 수 있습니다.
이 그림에 있는 것이 오리처럼 보인다고 나와 있습니다. 오리가 아니라면 무엇일까요? 그것은
토끼에 더 가깝습니다. 왜 그럴까요? 토끼 귀가 있기 때문이죠. 그리고 이 그림은 사실
많은 사람에게도 혼란을 줍니다. 따라서 AI가 이를 완전히 이해할 수 있다는 사실은 매우 흥미롭습니다,
매우 흥미롭습니다. 이 논문은 얼마 전에 발표되지 않았고 Microsoft에서 발표했습니다,
채팅 GPT에 추가하기 위해 연구하고 있던 내용이라고 생각합니다. 그리고
정말 멋진 점은 사람들이 정말 어려운 질문을 하는 것을 볼 수 있다는 것입니다,
그리고 정말 흥미로운 답변을 얻을 수 있다는 것입니다. 물론 여기에 있는 것 중 하나는
이 사진이 왜 재미있는지 설명하는 것입니다. 고양이가 마스크를 쓰고 있어서 고양이가 웃고 있습니다.
인공지능이 얼마나 빠르게 발전하고 있는지에 대해 조금은 두려운 생각이 들기도 하는데요.
얼마나 많은 정보를 이해할 수 있는지 보여주기 때문입니다. 이 AI를 실제 데이터와 결합하면 어떤 일이 벌어질지 상상해 보세요.
실제 데이터와 결합하면 어떻게 될지 상상해 보세요. 어린 소년이 스쿠터를 망가뜨려서 왜 울었을까요? 
포니 테일이라고 불리는 금발의 헤어 스타일은 무엇입니까? 그리고 당신은 이해해야합니다.
사람들이 모르는 것들이 있다는 것을 이해해야 합니다. 그래서 이것은 정말, 정말 유용할 것입니다. 상상해 보세요
어떤 헤어스타일인지 몰랐다고 상상해 보세요. 아이가 왜 우는지 전혀 이해하지 못했다고 상상해 보세요.
다른 언어를 더 잘 이해하려고 노력한다고 상상해 보세요. 분명
정말, 정말 흥미로운 일이 될 거예요. 물론 여기에서 보실 수 있습니다. 몇 가지가 있습니다.
더 중요한 질문이 나오고 있으며, 프롬프트는 말 그대로 완전한 이미지입니다. 그리고 저는 꽤
GPT4가 이 이미지를 엄청나게 정확하고 빠르게 해독할 수 있을 것이라고 확신합니다. 당신
여기에서 다른 유형의 질문도 볼 수 있는데, 매우 다른 유형입니다,
GPT4가 수학 문제뿐만 아니라 숫자 데이터도 얼마나 많이 이해할 수 있는지 보여줍니다.
생일 케이크에서 촛불을 끄는 여자아이의 모습이기 때문에 이미지의 맥락을 이해할 수 있습니다.
촛불을 끄는 소녀라고 말하기 때문입니다. 사실, 인공지능이 그림에서 무슨 일이 일어나고 있는지 정확히 이해한다는 것은
정확히 이해할 수 있다는 것은 매우 발전된 기술입니다. 또한 여기에서는 이것이 결혼식 사진을 찍기 위해 포즈를 취하고 있는
웨딩 사진을 위해 포즈를 취하고 있는 사람들입니다. 여기 뒤에 스타벅스입니다. 이것은 옥수수입니다. 이제 여러분
이 사진을 보고 있을지도 모른다는 것을 기억해야 합니다. 여러분이 이 사진들을
이 예제들이 아주 아주 기본적인 것이라고 생각하고 계실 수도 있습니다. 여러분이 이해해야 할 것은
인공지능은 수천 개가 아니라 수십만 개의 다양한 이미지를 학습하게 된다는 것입니다,
수십만 개의 서로 다른 이미지에 대해 학습한다는 것입니다. AI가 수십만 개의 서로 다른 이미지를 이해할 수 있게 되면
다양한 이미지를 이해할 수 있게 되면, 말 그대로 다양한 이미지에서 무슨 일이 일어나고 있는지
이해하게 될 것입니다. 이제 여기서 볼 수 있는 것은 멀티모달 모델입니다.
이미지와 텍스트를 결합하여 보다 인터랙티브하고 훨씬 더 즐거운
대화할 수 있습니다. 이 그림에 무엇이 있는지 보셨나요? 소시지 롤입니다.
어떻게 요리하나요? 소시지 롤을 담그고 따라 잡으십시오. 5 ~ 15 분 안에 구워서
맛있게 드세요. 그러면 바로 여기서 볼 수 있습니다. 이 동물에 대한 기본적인 질문을 하고 있습니다.
물론 훨씬 더 많은 정보를 제공하고 있습니다. 그리고 여기서 흥미로운 점이 있습니다.
일상에서 어떻게 사용할 수 있는지 정확히 보여주기 때문에 GPT4의 완전한 유용성을 보여줍니다.
이메일의 스크린샷을 본다고 가정해봅시다. 이 이메일이 누군가가 보낸 이메일인가요?
합법적인가요? 사기꾼이 보낸 이메일인가요? 내 컴퓨터에서 이 설정을 하고 싶은데
내 컴퓨터에서. 어떤 버튼을 클릭해야 하나요? 어디를 클릭해야 하나요? 그러면 GPT4가 정확히 무슨 일이 일어나고 있는지
정확히 안내해줄 수 있습니다. 따라서 특정 온라인 튜토리얼이 더 이상 필요하지 않을 수도 있습니다.
GPT4가 답을 알고 있기 때문입니다. 이 백서에는 훨씬 더 많은 내용이 담겨 있습니다,
하지만 확실히 매우 흥미롭습니다. 이제 GPT4가 IQ가
다양한 패턴 인식에 대한 데이터를 학습시켜 IQ를 높일 수 있게 된다면 어떻게 될까요?
이는 전 세계적으로 엄청난 영향을 미칠 것입니다,
주식 시장, 암호화폐 시장은 패턴 인식을 기반으로 합니다. 그리고 여기에서 볼 수 있듯이
레이븐 IQ 테스트에서 GPT4를 테스트하고 있습니다. 물론 소프트웨어는 이러한 질문에 더 효과적으로 답할 수 있도록 학습하고 있습니다.
질문에 더 효과적으로 답할 수 있도록 학습하고 있습니다. 정확히 어떻게 진행되고 있는지 보는 것은 정말 흥미롭습니다.
그리고 여기에는 멀티모달 사고 프롬프트 체인도 있습니다. 이것이 바로 생각의 사슬입니다.
프롬프트를 사용하면 대규모 언어 모델에서 일련의 추론 단계를 생성하여
다단계 문제를 중간 단계로 분해하여 성능을 크게 향상시킬 수 있습니다.
성능을 크게 향상시킬 수 있습니다. 기본적으로 말 그대로 말입니다. 따라서 이미지가 무엇인지 정확히 이해하는 데 매우
이미지가 무엇인지 정확히 이해하는 데 매우 효과적입니다. 그리고 질문에 대한 답을 바로 얻지 못하더라도
질문을 제대로 이해하지 못하더라도 어떤 데이터가 제시되고 있는지는 확실히 이해할 수 있습니다. 
그리고 결국 정답을 맞힙니다. 이런 일이 얼마나 빨리 진행되는지 보면
얼마나 빠르게 진행되고 있는지 보는 것은 정말 멋진 일입니다. 또한 GPT4가 매우 유사한 이미지를 구별하는 방법을 어떻게 학습하는지
구별하는 방법도 확인할 수 있습니다. 여기에서 카테고리 1과 카테고리 2가 있는 것을 볼 수 있습니다.
매우 유사한 이미지가 있습니다. 그리고 어떤 이미지가 어떤 이미지인지 정확히 이해할 수 있어야 합니다.
어떤 이미지인지. 또한 여기에서 문맥에 맞는 설명을 제공하면 이미지 분류의
이미지 분류의 정확성을 향상시킬 수 있다는 것도 알 수 있습니다. 그리고 일관된 개선은 우주를 나타내는 것입니다.
의도와 지침을 인식하고 개념과 언어가 잘 일치합니다.
양식이 시각적 특징 및 시각 양식과 잘 일치한다는 것을 의미합니다. 따라서 확실히 훨씬 더 나은
설명. 그리고 이 소프트웨어가 얼마나 정확한지 정확히 알 수 있습니다.
흥미롭습니다. 이제 설명에 이 논문 링크를 남겨두겠습니다.
이해하고 싶으실 것 같아서요. 너무 복잡할 수도 있습니다. 제 말은, 저는
천재가 아닙니다. 솔직히 연구 논문을 그렇게 자주 읽지도 않습니다. 하지만 솔직히 GPT4가 출시되고,
특히 빙의 채팅 이후, 얼마 전에 이상한 말을 하고 있다는 발표가 있었는데
살아있고 싶다는 등의 이상한 말을 하고 있다고요. 저는 확실히 아주, 아주 무서운 편은 아닙니다.
AI의 부상과 우리 사회로의 통합에 대해 회의적인 분들에게는 더더욱 그렇습니다.
이 모든 대화는 정말, 정말 우려스러운 것이었습니다. 만약 이와 같은 시나리오가 실제로 발생한다면 어떻게 될까요?
하지만 이제 우리는 실제로 이미지를 가지고 있습니다. 그래서 이런 종류의 사건에서 정확히 어떤 일이 벌어지고 있는지
정확히 보는 것은 매우 흥미롭습니다. 또 한 가지 흥미로운 점은 Microsoft가
는 이 기능을 매우 천천히 출시할 것이라고 말했지만, 그 이유는 아마도
AI 경쟁에서 이기려고 하는 것 같습니다. 여기서 한 가지 이해해야 할 점은
AI는 매우 느리고 효과적인 방식으로 출시되어야하지만
회사는 현재 Elon Musk 및 현재 Google과 같은 다른 회사와 경쟁하고 있습니다.
경쟁에서 앞서 나가기 위해 가능한 한 빨리 이러한 기능을 출시해야 합니다. 그리고 그것은
안타깝게도 때때로 AI가 이 남자의 결혼을 깨뜨리려고 한다거나
결혼. 분명 아주 이상한 종류의 AI이지만, 이 기술의 부상으로 인해
이 기술의 부상을 보여줍니다. 솔직히, 이 연구 논문과 진행 중인 연구들을 보면
얼마나 빠르게 발전하고 있는지, 저는 내년에는 제너레이티브 AI와 관련하여
이 소프트웨어가 얼마나 세부적으로 발전할 것인지에 관해서는요. 이제 겨우
겨우 몇 달이 지났는데도 우리는 빛의 속도로 움직이고 있습니다. 이 소식이 100% 사실인지는 잘 모르겠습니다.
블룸버그나 야후 뉴스와 같은 대형 매체가 이 이야기를 다루는 것을 보지 못했기 때문입니다.
이 이야기를 다루고 있지만 이것이 합법적이라면 내일 신문에서 몇 가지 기사를 보게 될 것이라고 확신합니다.
내일 신문이나 Microsoft 자체의 트윗을 볼 수 있습니다,
유출된 루머일 수도 있지만, 이 많은 내용들, 특히 이 연구 논문이
매우 일관성 있고 매우 합법적으로 보입니다. 

 

 

SMALL




[ English Summary ]

Microsoft's recent rumors of GPT4 are expected to push the company further ahead in the field of artificial intelligence. 
GPT4 is said to be a step forward from current AI technology as it already understands natural language. 

This time, it will introduce a multi-module model that can understand not only video, but also images and speech. 
Rumors are also circulating that GPT4 has more than 100 trillion parameters. 
Microsoft released Cosmos 1 in early March 2023, a multi-module language model that performs image classification, answers questions about image content, automatic labeling, character resolution, and speech generation tasks, and GPT4 is expected to provide more advanced technology than Cosmos 1. 

GPT4 will also support all languages, so it will be able to answer questions in German and answer in Italian. 
The new paper provides several examples of how GPT4's inputs and outputs work. 
Some say that this technology shows how far artificial intelligence technology has come.


[ English Full Text ]

So Microsoft's ChatGPT was just announced, so we will introduce GPT4 next week.
We will introduce multi-module models that will offer completely different possibilities.
For example, videos. This is going to be a game changer as these machines already understand
natural language and you can all see right here that we are moving to the next step in AI.
So now you can also see that some of the rumors about GPT4 that it has over 100 trillion
parameters, which some people are saying are rumors, but I don't know exactly where this
image has come from, but if it is true, it's definitely going to be insane with just how fast
AI is going to be moving forward. Something that is also very interesting is Microsoft's Cosmos 1.
So you can see here it says something that apparently was under reported in the United States
is that Microsoft released a multi-module language model called Cosmos 1 at the beginning of March 2023.
So apparently they said they subjected the pre-trained model to various tests with good results
in classifying images, answering questions about image content, automated labeling of images,
optical text resolution and speech generation tasks. Visual visual reasoning, for example,
drawing conclusions about images without using language as an intermediate step seems to be key here.
And it says GPT4 even goes further than Cosmos 1 because it adds a third modality,
video, and appears to include the modality of sound. So this is going to be pretty insane.
We're going to be getting many different versions of content from GPT. Is this going to be better
than mid-journey? Is this going to be better than Dali too? Better than stable diffusion?
We have no idea. It also says that GPT4 appears to work across all languages,
and it appears as being described as to be able to receive a question in German and answer
in Italian. So this is going to make this so much more effective. It seems that Microsoft is winning
the AI race as things start to ramp up. But what we're also seeing is there is no current
announcement of where GPT4 will show up, but the Azure Open AI was specifically mentioned.
And of course you can see Google is struggling to catch up to Microsoft by integrating
competing technology into its own search engine, which we already know actually did recently fail,
which did tank the stock price. Here you can see we get a first look at a paper which breaks down
exactly what GPT4 is allegedly going to be like. This is Cosmos 1, and this is basically explaining
a multimodal, larger language model. So we can all see here that there are several descriptions
and several examples of inputs and outputs that show us exactly what GPT4 is going to look like.
It says what's in this picture looks like a duck. That's not a duck, then what is it? It looks
more like a bunny. Why? Because it has bunny ears. And you can see that this picture is actually
even confusing to a lot of humans. So the fact that AI can completely understand this is very,
very interesting. Now this paper wasn't released too long ago, and it was released by Microsoft,
so I'm guessing that this is what they were working on to add towards chat GPT. And what's
really cool is that you can see that they're asking them some really, really difficult questions,
and you get some really interesting responses. One of the things that we have here is of course
explain why this photo is funny. The cat is wearing a mask that gives the cat a smile.
This kind of makes me a little bit scared about how quickly AI is progressing because this shows us
just how much information this AI can understand. Imagine what happens when you combine this AI
with real world data. And they said why did little boy cry because he broke his scooter?
What is the hairstyle on the blonde called a ponytail? And you have to understand that some of
these things people aren't going to know. So this is going to be really, really useful. Imagine
you didn't know what hairstyle that was. Imagine you didn't really understand why he was crying.
Imagine you were trying to understand different languages better. It's definitely going to be
something that is really, really interesting. And of course you can see here. There are some
more important questions being asked, and the prompt is literally a complete image. And I'm pretty
sure GPT4 is going to be able to decipher these images with ridiculous accuracy and speed. You
can see also here that they have some other types of questions, which are very, very different,
and it just shows how much GPT4 can understand not just math questions and not just numerical data.
It's able to understand the context of images because it says it's a girl blowing out a candle
on her birthday cake. Honestly, that is very, very advanced for an AI to be able to understand
exactly what is going on in that picture. You can also see here that it says this is a group of
people posing for a wedding photo behind here. It is Starbucks behind here. This is corn. Now you
have to remember that you might be looking at this picture. You have to remember you might be
looking at these examples thinking these are super, super basic. What you need to understand is
that the AI is going to be trained on a thousand different images, not just a thousand,
hundreds of thousands of different images. Once the AI can understand hundreds of thousands of
different images, you're going to be able to have an AI that literally understands what's
happening in many different images. Now, what we can see here also is the multimodal model where
we're combining images and text to combine to create a more interactive and much more enjoyable
conversation between GPT4 and the user. You can see it says, what's in this picture? A sausage roll.
How do I cook it? Soak the sausage roll and catch up. Bake him you up in 5 to 15 minutes
and enjoy it. You can then see right here. It's being asked basic questions about this animal.
And of course, it's giving a lot more information. And this is where things get interesting because
this shows the complete utility of GPT4 because it shows exactly how you can use this on a day-to-day.
Maybe you see a screenshot of an email. Maybe you want to ask GPT4, is this email from someone
legit? Is this email from a scammer? You might ask them, hey, I want to do this setting on my
computer. What button do I click? Where do I click? And you might be able to have GPT4 walk you
through exactly what's going on. So maybe certain online tutorials aren't going to be needed anymore
because GPT4 will simply know the answers. Now, this paper does have a lot more stuff in it,
but it definitely is very, very interesting. Now, what do you think happens once GPT4 is going to
be able to increase its IQ by training its data on a number of different pattern recognitions?
This is going to have a ridiculous amount of implications worldwide because as we know,
stock markets, crypto markets are based on pattern recognition. And you can see here that they're
testing GPT4 on a Raven IQ test. And of course, the software is learning to be able to answer these
questions more effectively. It's definitely really interesting to see exactly how it's going.
And what we also have here is the multimodal chain of thought prompting. This is chain of thought
prompting allows large language models to generate a series of reasoning steps to decompose a
multi-step problem into intermediate steps, which can significantly improve the performance
in complex tasks. They're basically what they're saying. So it's definitely something that is very,
very effective at understanding exactly what images are. And even if it doesn't get the question
right first, it's definitely going to be able to understand what data is being presented to it.
And then eventually get the answer correct. It definitely is really cool to see just how quickly
this stuff is going. You can also see here just exactly how GPT4 is learning how to differentiate
between very similar images. You can see here that there are category ones and category two's
of images that are very, very similar. And it has to be able to understand exactly what image is
what image. You can also see here that it says providing descriptions in context can improve the
accuracy of image classification. And the consistent improvements indicate the cosmos one can
perceive the intentions and the instructions and well aligned the concepts and language
modality with the visual features and vision modality. So it's definitely much better with the
descriptions. And you can see exactly how accurate this software is, which is really, really
interesting. Now, I'll leave a link to this paper in the description because I'm pretty sure
you're going to want to understand this. Maybe it might be a bit too complex. I mean, I'm no
genius. I honestly don't even read research papers that often. But honestly, GPT4 being released,
especially after Bing's chat, but was just recently announced that it was saying weird things
such as I want to be alive and I am. I am not definitely more on the very, very scary side for
those of you who are skeptical about the rise of AI and its integration into our society.
All of these chats were truly, truly concerning. So what will happen if another scenario like this
does happen, but we now actually have images. So it's definitely quite interesting to see exactly
what's going on with these kind of language models. What's also interesting is that Microsoft
did say that they were going to roll this out very slowly, but it seems that they might just be
trying to win when it comes to the AI race. You see, one thing you have to understand is that even
though the AI is supposed to be rolled out in a very slow and effective manner, because these
companies are competing with other companies such as now Elon Musk and now Google, they have to
roll out these features as quick as possible in order to stay ahead of the competition. And that
means, unfortunately, sometimes the AI says weird things such as trying to break up this guy's
marriage. Definitely a very, very strange kind of AI, but it just goes to show with the rise of
this technology. Honestly, these research papers and the amount of stuff that is going on with
how quickly it's progressing, I'm not even sure where we're going to be next year when it comes
to generative AI with regards to how detailed this software is going to be. It feels like it's
only been a couple of months and we're moving at lights. Now, I'm not sure if this news is 100%
legit because we haven't seen any big outlets such as Bloomberg or perhaps such as Yahoo News
cover this story, but I'm pretty sure that if this is legit, we will see some articles in the
papers tomorrow or some tweets from perhaps Microsoft themselves because maybe this was a leak,
maybe this was a rumor that got leaked, but a lot of this stuff, especially this research paper,
does seem very, very coherent and very, very legit.




 

반응형
LIST
Comments