개방형 AI부터 해킹된 스마트 글래스까지 이번 주 AI 헤드라인 5가지를 소개합니다.

모델이 착용한 헤드라인 스타일의 Ray-Ban Meta 스마트 안경입니다.
메타

우리는 이번 주에 공식적으로 Spooky Season으로 전환했으며 OpenAI의 660만 달러 자금 조달 라운드, Nvidia의 놀라운 LLM 및 개인 정보를 침해하는 일부 Meta Smart Glasses 사이에서 AI 공간에서 무서운 발전을 보았습니다. 다음은 가장 큰 다섯 가지 발표 사항입니다.

OpenAI CEO 샘 알트만(Sam Altman)이 제품 행사에서 무대에 서 있습니다.
Andrew Martonik / 디지털 트렌드

OpenAI, 최근 자금 조달 라운드에서 66억 달러 확보

Sam Altman의 매력적인 존재는 이번 주 OpenAI가 가장 최근의 자금 조달 라운드의 일환으로 추가로 66억 달러의 투자를 확보 했다는 소식으로 빠르게 이어졌습니다. Microsoft 및 Khosla Ventures와 같은 기존 투자자에는 새로 등장한 SoftBank 및 Nvidia가 합류했습니다. AI 회사는 현재 무려 1,570억 달러의 가치로 평가되어 지구상에서 가장 부유한 민간 기업 중 하나가 되었습니다. 그리고 OpenAI가 제안한 영리 구조 조정 계획이 통과되면 그 가치 평가로 Altman은 1,500억 달러 이상의 자기자본을 확보하게 되어 지구상에서 가장 부유한 10대 명단에 오르게 됩니다. 자금 조달 소식에 이어 OpenAI는 Anthropic의 Artifacts 협업 기능인 Canvas를 출시했습니다.

Nvidia CEO Jensen이 배경 앞에 서 있습니다.
엔비디아

Nvidia는 GPT-4와 경쟁할 오픈 소스 LLM을 출시했습니다.

Nvidia는 이번 주 LVNM 1.0 출시를 통해 AI 하드웨어에서 AI 소프트웨어로 도약하고 있습니다. LVNM 1.0은 다양한 비전 및 언어 작업에 탁월한 진정한 오픈 소스 대규모 언어 모델입니다. 이 회사는 720억 매개변수 LVNM-D-72B가 이끄는 새로운 모델 제품군이 GPT-4o와 경쟁할 수 있다고 주장합니다. 그러나 Nvidia는 LVNM을 다른 프론티어급 LLM에 대한 직접적인 경쟁자가 아니라 다른 개발자가 자신의 챗봇과 애플리케이션을 만들 수 있는 플랫폼으로 포지셔닝하고 있습니다.

Google Pixel 9에서 Gemini Live를 시연합니다.
조 마링 / 디지털 트렌드

Google의 Gemini Live는 이제 거의 46개 언어를 구사합니다.

챗봇과 직접 대화할 수 있는 것이 새로운 필수 기능인 것 같습니다. Google은 이번 주에 프랑스어, 독일어, 포르투갈어, 힌디어, 스페인어를 시작으로 영어 외에거의 40개 언어로 대화할 수 있도록 Gemini Live를 확장한다고 발표했습니다. Microsoft는 또한 Copilot Voice 라고 불리는 Copilot의 유사한 기능을 공개했습니다. 이 기능은 "이동 중에 브레인스토밍을 할 수 있는 가장 직관적이고 자연스러운 방법"입니다. 그들은 ChatGPT의 고급 음성 모드 와 Meta의 자연스러운 음성 상호 작용 에 참여하여 사용자가 휴대폰뿐만 아니라 휴대폰으로도 대화할 수 있도록 합니다.

강연에서 연설하는 개빈 뉴섬 CA 주지사
게이지 스키드모어 / 플리커

캘리포니아 주지사, 광범위한 AI 안전 법안 거부

개빈 뉴섬 주지사가 이번 주에 AI 안전 법안을 거부함에 따라 캘리포니아의 첨단 인공 모델을 위한 안전하고 안전한 혁신법인 SB 1047을 둘러싼 모든 싸움은 수포로 돌아갔습니다. 그는 국회의원들에게 보낸 서한에서 이 법안이 근시안적으로 가장 큰 언어 모델에 초점을 맞추고 있으며 "더 작고 전문화된 모델은 SB 1047이 목표로 하는 모델과 동등하거나 훨씬 더 위험할 수 있다"고 주장했습니다.

수영장 옆에 있는 Ray-Ban Meta 스마트 안경.
Phil Nickinson / 디지털 트렌드

해커들이 Meta 스마트 안경을 자동 신상 털기 기계로 바꿔 놓았습니다.

404 Media는 이번 주에 하버드 컴퓨터 과학과 학생들 두 명이 시중에서 판매되는 Meta 스마트 안경을 수정하여 자신의 시야에 들어오는 사람을 식별하고 검색할 수 있다고 보도 했습니다. I-XRAY 실험의 일부인 안경은 거리에 있는 낯선 사람의 이미지를 캡처하고 PimEyes 이미지 인식 소프트웨어를 통해 해당 이미지를 실행하여 피사체를 식별한 다음 해당 기본 정보를 사용하여 개인 정보(예: 전화번호 및 집 주소)를 상업용 데이터 중개 사이트에서 확인할 수 있습니다.

"이를 사용하려면 안경을 끼고 사람들 옆을 지나갈 때 누군가의 얼굴이 프레임 안에 들어왔을 때 안경이 감지됩니다."라고 두 사람은 X에 게시된 비디오 데모에서 설명했습니다. “몇 초 후에 그 사람의 개인정보가 당신의 휴대전화에 나타납니다.” 그러한 시스템의 개인 정보 보호 영향은 끔찍합니다. 두 사람은 소스 코드를 공개적으로 공개할 의도가 없지만 이제 공개할 수 있음을 보여 주었으므로 다른 사람들이 소스 코드를 리버스 엔지니어링하는 것을 막을 방법이 거의 없습니다.


게시됨

카테고리

작성자

태그: