GPT-4 대 GPT-3 [새 모델은 무엇을 제공해야 합니까?]
요컨대
OpenAI는 GPT 언어 모델의 다음 버전인 GPT-4를 발표했습니다. GPT-XNUMX는 더 많은 매개변수를 가지며 다양한 자연어 처리 작업에 사용될 것으로 예상됩니다.
GPT-4는 텍스트와 시각적 정보를 모두 이해하므로 이미지 캡션, 시각적 질문 응답 및 콘텐츠 생성과 같은 작업을 위한 강력한 도구입니다.
64단어의 우수한 메모리 용량을 가지고 있어 보다 일관되고 상황에 맞는 응답을 생성할 수 있습니다.
26개 언어로 질문에 답변할 준비가 되어 있으며 조사한 3.5개 언어 중 24개 언어에서 GPT-26 및 기타 LLM의 영어 성능을 능가합니다.
자연어 처리의 이 새로운 발전은 다국어 커뮤니케이션과 접근성에 큰 도움이 될 것입니다.
마이크로소프트가 약속한 대로 14월 XNUMX일, OpenAI 공식 발표 GPT 언어 모델의 다음 버전인 GPT-4는 훨씬 더 많은 수의 매개 변수가 있습니다. 이전 GPT-3보다. 이것은 잠재적으로 이전보다 더 인상적인 언어 생성 기능으로 이어질 수 있습니다. 또한 GPT-4는 채팅 및 텍스트 완성과 같은 다양한 자연어 처리 작업에 사용될 가능성이 높습니다.
더 읽기 : 영원히 무료로 ChatGPT(GPT-4)를 사용하는 방법 |
GPT-4는 텍스트뿐만 아니라 아직 비디오로 확장되지는 않았지만 시각 정보도 마찬가지입니다. GPT-4 모델은 그림에 정확히 무엇을 묘사하고 있으며 그 의미를 설명할 수 있습니다. 시연에서 GPT-4는 고대 VGA 케이블을 아이폰에 연결하는 비주얼 농담을 설명하고 사진에 보이는 재료로 무엇을 요리할 수 있는지도 알려줬다. 시각적 정보를 이해하고 해석하는 이러한 능력은 GPT-4를 이미지 캡션, 시각적 질문 응답, 심지어 콘텐츠 생성과 같은 작업을 위한 강력한 도구로 만듭니다. 텍스트와 시각적 이해의 통합으로 GPT-4는 광고, 디자인 및 전자 상거래와 같은 다양한 산업에 혁명을 일으킬 수 있는 잠재력을 가지고 있습니다.
그림 입력은 연구 미리 보기로 남아 있으며 일반 대중이 액세스할 수 없습니다.
더 읽기 : 6 AI ChatBot 문제 및 과제: ChatGPT, Bard, Claude |
GPT-4는 기억력이 좋습니다. 이전 버전이 8,000개의 단어를 기억할 수 있었다면 GPT-4는 25,000개의 단어를 쉽게 기억할 것입니다(따라서 대략 어니스트 헤밍웨이의 "노인과 바다"의 길이). OpenAI는 약 64,000개의 단어를 기억하는 슈퍼 버전의 AI를 발표했습니다(이는 대략 CS Lewis의 "The Magician's Nephew" 또는 Aldous Huxley의 "Brave New World"의 길이입니다). 이렇게 하면 모델이 4분 전에 작성된 내용을 기억할 수 있으므로 긴 대화를 시작할 때 논의된 주제로 돌아갈 수 있습니다. 이렇게 증가된 메모리 용량을 통해 GPT-XNUMX는 보다 일관되고 상황에 맞는 응답을 생성할 수 있으므로 자연어 처리 작업에 유용한 도구가 됩니다. 또한 이전에 논의된 주제를 기억하는 기능은 인간과 더 복잡하고 의미 있는 대화에 참여하는 능력을 향상시킬 것입니다.
GPT-4는 26개 언어로 질문에 답할 준비가 되어 있습니다. GPT-4는 라트비아어, 웨일스어, 스와힐리어와 같은 저자원 언어를 포함하여 조사한 3.5개 언어 중 24개 언어에서 GPT-26 및 기타 LLM(Chinchilla, PaLM)의 영어 성능을 능가합니다. 자연어 처리의 이 새로운 개발은 다국어 커뮤니케이션과 접근성에 큰 도움이 될 것입니다. 교육, 의료 및 비즈니스와 같은 다양한 분야에서 언어 장벽을 허물기 위한 중요한 단계입니다.
GPT-4는 리소스가 적은 언어에서 이전 버전보다 더 나은 성능을 발휘하므로 더 많은 사람들이 모국어로 정보와 서비스에 액세스할 수 있는 기회가 열립니다. 이는 또한 보다 포괄적이고 다양한 디지털 공간으로 이어져 문화 교류와 이해를 촉진할 것입니다.GPT-4는 쉽게 짜증을 내지 않으므로 위협하거나 모욕하거나 말도 안 되는 말을 하기 시작할 것 같지 않습니다. 이를 달성하기 위해 엄청난 수의 "악의적인" 텍스트 프롬프트에 대해 교육을 받았습니다. GPT-4의 학습 데이터에는 증오심 표현, 사이버 괴롭힘, 트롤링 등 다양한 유형의 악성 텍스트 프롬프트가 포함되어 있습니다. 이렇게 하면 모델이 응답에서 그러한 유해한 콘텐츠를 인식하고 생성하는 것을 방지할 수 있습니다.
GPT-3.5와 비교하여 GPT-4의 몇 가지 안전 기능은 개발자 완화를 통해 크게 향상되었습니다. GPT-3.5의 경우와 달리 개발자는 금지된 콘텐츠에 대한 요청에 응답하는 모델의 성향을 82%까지 줄인 반면 GPT-4는 민감한 요청(예: 의학적 조언 및 자해 요청)에 대한 잘못된 응답을 준수했습니다. 29% 감소했습니다.
더 읽기 : 5년 Google 스프레드시트 및 문서용 GPT 기반 확장 프로그램 상위 2023개 |
GPT-4는 수학, 물리, 화학을 포함한 20개 이상의 가장 일반적인 지식 테스트를 통과했습니다. 어떤 경우에는 모델이 테스트한 모델의 88%보다 더 나은 성능을 보였습니다. 이 성과는 GPT-4가 교육, 연구 및 고객 서비스와 같은 분야에서 게임 체인저가 될 가능성이 있음을 보여줍니다. 그러나 이러한 영역에 완전히 통합되기 전에 추가 테스트 및 개발이 필요합니다.
GPT-4는 Stripe 결제 서비스를 비롯한 여러 대기업에서 이미 테스트 중입니다. OpenAI는 또한 Microsoft의 업데이트된 Bing 검색 엔진이 이미 새 버전의 GPT에서 작업했습니다.. 또한 회사는 경쟁사에 불필요한 정보를 공개하지 않기 위해 GPT-4의 기술적 특성에 대한 자세한 논의를 거부했습니다.
GPT-4는 여전히 완벽하지 않습니다. 지식은 2021년 XNUMX월로 제한되며 경우에 따라 AI가 "환각"하여 부정확하거나 단순히 가상의 정보를 제공합니다. 이제 이 모델은 유료 ChatGPT Plus 서비스 가입자만 사용할 수 있으므로 개발자는 API 대기자 명단에 올릴 수 있습니다. 무료 버전은 아직 발표되지 않았습니다.
GPT-4와 GPT-3의 주요 차이점
- GPT-4는 다양한 테스트에서 검증된 실제 및 기타 오류를 더 적게 생성합니다. 특히 GPT-4는 미국 변호사 면허 표준시험 합격 시 상위 10% 수험생에 속했다. 이에 비해 CPT-3는 하위 10%에 속했습니다.
- 새 모델은 노래, 연극 등 텍스트를 인간에 가까운 수준으로 만들고 편집할 수 있습니다. 또한 사용자의 요청에 따라 작성자의 스타일을 채택하거나 다른 스타일을 모방할 수 있습니다.
- 모델은 그림을 인식하고 그림과 상호 작용할 수 있습니다. 예를 들어 그림에 표시된 제품을 사용하여 레시피를 제안합니다. 또 다른 용도는 시각 장애인을 위한 환경을 설명하는 것입니다. 이를 위해 Open AI는 이미 Be My Eyes라는 전용 애플리케이션과 파트너 관계를 맺었습니다.
- GPT-4는 한 번에 25,000단어 이상(이전 버전에서는 8,000단어)을 처리할 수 있어 대량의 텍스트를 생성하거나 처리할 수 있습니다.
- 모델이 더욱 다국어화되었습니다. 여전히 영어에서 가장 잘 작동하지만 상당히 높은 정확도로 다른 25개 언어(이탈리아어, 우크라이나어 및 한국어 포함)로 텍스트를 생성할 수 있습니다.
- GPT-4는 ChatGPT Plus 채팅의 유료 버전에서 사용할 수 있으며 API를 통해 개발을 통해 적극적으로 수익을 창출하고 있습니다. Duolingo, Stripe, Morgan Stanley, Khan Academy 및 아이슬란드 정부는 이미 필요에 따라 이 모델을 사용하고 있습니다. 최근 미국 최대 소프트웨어 회사 중 하나인 세일즈포스.
Metas AI 퍼스트 비전, 새로운 데이터 센터와 슈퍼컴퓨터 공개로 구체화
이전에 Facebook이었던 Meta는 XNUMX년 넘게 인공 지능 분야의 선구자였으며, 뉴스 피드, Facebook 광고, 메신저, 가상 현실.
그러나 보다 발전되고 확장 가능한 AI 솔루션에 대한 수요가 증가함에 따라 보다 혁신적이고 효율적인 AI 인프라에 대한 요구도 증가하고 있습니다.
현지 언어 경험을 향상시키기 위해 때때로 자동 번역 플러그인을 사용합니다. 자동 번역이 정확하지 않을 수 있으니 참고하세요. 실물 정확한 정보를 위한 기사.
소셜 미디어 거대 기업인 Meta는 인공 지능(AI)의 선구자이며 이를 사용하여 뉴스 피드, Facebook 광고, Messenger 및 VR과 같은 제품 및 서비스를 강화합니다. 그 회사 발표 차세대 AI 애플리케이션을 지원하는 새로운 하드웨어 및 소프트웨어 프로젝트. 이 행사에는 Meta의 연사들이 참여했습니다. 통찰력을 공유했습니다. 대규모 AI 시스템 구축 및 배포 경험.
Meta는 다양한 도메인에서 AI 워크로드를 가속화하기 위해 Meta의 자체 실리콘, Meta 교육 및 추론 가속기, RSC(Research Supercluster)를 사용하여 AI 교육 및 추론에 최적화된 자체 AI 데이터 센터를 구축했다고 발표했습니다.
AI 인프라는 Meta 및 Baidu와 같은 회사의 우선 순위입니다. 목표는 AI를 더욱 발전시키는 것입니다.
IBM의 새로운 AI 슈퍼컴퓨터인 Vela는 Nvidia GPU 및 이더넷 기반 네트워킹과 함께 x86 실리콘을 사용합니다. IBM의 목표는 엔터프라이즈 AI 요구 사항을 충족하는 데 도움이 될 수 있는 새로운 기반 모델을 구축하는 것입니다. Google은 10월 XNUMX일 Nvidia GPU와 맞춤 설계된 인프라 처리 장치를 사용하는 AI 슈퍼컴퓨터인 Google System을 발표했습니다.
Meta는 MTIA 칩으로 맞춤형 실리콘 공간에 뛰어들고 있습니다. 맞춤형 AI 추론 칩이 점점 보편화되고 있습니다. Meta Research 과학자 Amin Firoozshahian은 기존 CPU가 Meta가 실행하는 애플리케이션의 추론 요구를 처리하는 데 적합하지 않다고 언급했습니다. "MTIA는 우리가 중요하게 생각하는 워크로드에 최적화되고 이러한 요구 사항에 맞게 특별히 조정된 칩입니다."
Meta는 대규모 기계 학습 회사입니다. 파이 토치. 그들은 PyTorch 워크로드를 실행하기 위해 고도로 최적화된 실리콘을 원합니다. MTIA 실리콘은 7nm(나노미터) 공정 설계이며 최대 102.4TOPS의 처리량을 제공할 수 있습니다. 네트워킹, 데이터 센터 최적화 및 전력 활용을 포함한 AI 운영을 최적화할 계획입니다. 미래의 데이터 센터는 AI를 위해 구축될 것입니다.
Meta는 수십억 사용자의 요구를 충족하기 위해 XNUMX년 넘게 데이터 센터를 구축했습니다. AI 사용이 증가함에 따라 회사는 더 많은 컴퓨팅 용량이 필요합니다. 이를 해결하기 위해 냉각을 재고하고 칩에 액체 냉각을 제공하고 있습니다.
- Meta는 광고주를 위한 테스트 놀이터인 AI Sandbox를 출시했습니다. 실험 생성 AI 기반 광고 도구를 사용합니다. 샌드박스는 건물 광고를 혁신하고 캠페인 결과를 개선할 수 있습니다.
- IBM 발표 기업을 위한 새로운 AI 개발 플랫폼 WatsonX. IBM은 watsonx를 통해 기업이 기존 기계 학습 및 새로운 생성 AI 기능을 구축, 교육, 조정 및 배포하는 데 사용할 수 있는 기반 모델 제품군을 갖춘 AI 개발 스튜디오를 제공하고 있습니다. IBM watsonx.ai 스튜디오는 2023년 XNUMX월에 출시될 예정입니다.
- 대중적인 시각 커뮤니케이션 플랫폼인 Canva는 공개했다 Canva Create 이벤트에서 AI 기반 디자인 도구의 새로운 제품군. 이 제품군에는 XNUMX개의 새로운 기능이 포함되어 있으며 그 중 하나는 사용자가 이미지를 업로드하고 스타일을 선택할 수 있는 Magic Design입니다. 그 후에 도구는 개인화된 템플릿 선택 항목을 큐레이팅합니다. 또 다른 새로운 추가 기능인 Magic Edit는 사용자가 도구에 설명하는 것만으로 이미지의 모든 항목을 추가하거나 교체할 수 있도록 합니다.
Meta와 BMW, VR/AR을 갖춘 차량 내 엔터테인먼트의 미래 공개
Meta와 BMW는 승객 경험 향상을 목표로 증강 및 가상 현실을 스마트 차량에 통합하기 위해 협력합니다.
이 파트너십은 Meta의 AR/VR 전문 지식과 BMW의 Group Technology Office USA를 결합합니다.
두 회사는 추적 시스템과 센서 데이터를 통합하여 움직이는 차량에서 VR 헤드셋이 직면한 문제를 극복했습니다.
현지 언어 경험을 향상시키기 위해 때때로 자동 번역 플러그인을 사용합니다. 자동 번역이 정확하지 않을 수 있으니 참고하세요. 실물 정확한 정보를 위한 기사.
메타와 BMW는 합동 세력 증강 현실과 가상 현실 기술을 스마트 차량에 통합하여 운송을 혁신합니다. 이 협업은 승객 경험을 향상시켜 보다 쌍방향적이고 매력적인 여정을 제공하는 것을 목표로 합니다.
2021년에 발표된 파트너십은 더욱 매혹적인 여행 경험을 추구하는 데 중요한 이정표를 세웠습니다. AR/VR 발전의 최전선에 있는 기술 부서인 Meta의 Reality Labs Research는 전문성을 활용하여 BMW의 Group Technology Office USA와 협력했습니다.
Meta의 블로그 게시물에 따르면 소셜 미디어 거인과 BMW는 관성 모션 센서와 카메라를 사용하여 VR 헤드셋 움직임을 추적하는 Oculus Insight 기술이 직면한 중요한 문제를 해결했습니다. 충돌은 자동차 내부와 관련된 동작을 관찰하는 카메라와 세계에 대한 가속도 및 회전 속도를 측정하는 IMU(관성 동작 센서) 사이의 불일치에서 발생합니다. 이 한계를 극복하기 위해 Meta와 BMW는 자동차 센서 어레이의 실시간 IMU 데이터를 프로젝트 아리아 연구 안경의 추적 시스템. 이 접근 방식을 통해 안경은 움직이는 자동차에 대한 위치를 정확하게 계산할 수 있으므로 차량의 디지털 트윈을 사용하여 가상 객체를 안정적으로 고정할 수 있습니다.
데모에서 Meta와 BMW는 빠르게 움직이는 자동차의 승객에게 VR 및 혼합 현실(MR) 콘텐츠를 정확하고 일관되게 표시하는 능력을 보여주었습니다. 회전, 과속 방지턱, 가속 중에도 콘텐츠의 안정성이 영향을 받지 않는 점에서 이러한 성과는 최초입니다. 연구원들은 Meta Quest의 추적 시스템을 BMW의 센서 데이터와 완벽하게 통합함으로써 자동차 환경을 위해 특별히 설계된 게임, 엔터테인먼트 및 생산성에 이르기까지 일련의 안정적이고 몰입감 있는 경험을 가능하게 했습니다.
사용할 수 있다면 어떨까요? #AR 및 #VR 이동 중 기술 – 도로에서도
?
— 메타 뉴스룸(@MetaNewsroom) 17년 2023월 XNUMX일
우리는 함께 일하고 있습니다 @BMW그룹 승객을 위한 AR 및 VR 경험을 만들어 보다 생산적이고 재미있는 여행을 할 수 있습니다.https://t.co/MnzpiNot0g pic.twitter.com/Z2vG07Pdrd
Meta와 BMW는 자동차의 위치를 세계와 통합함으로써 다음 단계로 나아가 실제 환경에 고정된 가상 콘텐츠를 렌더링할 수 있습니다. 이 발전은 자동차의 정확한 포지셔닝 시스템을 사용하여 차량 외부의 랜드마크와 관심 지점을 식별할 수 있는 잠재력을 가지고 있습니다.
"이 기술이 언제 어떻게 고객의 손에 들어갈지 정확히 말하기에는 너무 이르지만, 우리는 혼잡한 주차장에서 운전자가 차를 찾는 데 도움을 주는 것부터 도로의 위험에 대해 경고하고 차량 상태에 대한 중요한 정보를 표시합니다. 승객과 운전자 모두에게 미래의 AR 안경과 VR 장치가 미치는 영향은 유망합니다.”
말했다 Mountain View에 있는 BMW 그룹 기술 사무소 미국 책임자인 Claus Dorrer.
지난해 BMW 통합 된 블록체인 기술을 일상적인 워크플로에 도입하고 태국 고객을 위한 블록체인 로열티 프로그램을 도입했습니다. 블록체인 인프라 회사인 Coinweb과 협력하여 BMW는 분산형 아키텍처를 활용하고 Binance의 BNB Chain을 사용하여 트랜잭션을 해결했습니다.
'플러그인 링크 리더' 카테고리의 다른 글
돈 버는 재미 머니랩 (0) | 2023.05.26 |
---|---|
250억 써도 혹평…잘 나가는 K콘텐트 [SF만 고전하는 이유] (0) | 2023.05.26 |
플랫폼 비즈니스로 진화하는 사업 모델 [해외 플랫폼 비즈니스의 진화 방향] (1) | 2023.05.22 |
플랫폼 비즈니스, 오픈 아키텍처 [한국 플랫폼 비즈니스 현황 및 조망] (0) | 2023.05.22 |
연예계 유행으로 알아보는 따끈한 트렌드 (1) | 2023.05.21 |
MZ세대? 아니 '잘파세대(Zalpha)' 마케팅 (2) | 2023.05.21 |
2023 금융소비 트렌드 키워드는? ㅇㅇ이다. (1) | 2023.05.21 |
인터넷으로 현실적인 돈버는 방법 [2023년+10가지] (2) | 2023.05.20 |