ChatGPT의 고급 음성 기능이 마침내 Plus 및 Teams 구독자에게 출시됩니다.

고급 음성 모드의 UI
오픈AI

OpenAI는 화요일 트위터를 통해 고급 음성 기능 과 대화형 AI를 위한 5개의 새로운 음성을 이번 주 내내 Plus 및 Teams 계층 가입자에게 출시할 것이라고 발표했습니다. Enterprise 및 Edu 구독자는 다음 주부터 액세스 권한을 얻게 됩니다.

GPT-4o 모델에서 실행되는 Advanced Voice를 사용하면 사용자는 서면 텍스트 프롬프트를 사용하지 않고 다른 사람처럼 챗봇과 직접 대화할 수 있습니다. OpenAI의 봄 업데이트 이벤트 에서 처음 발표되었으며 7월에 시스템 베타 테스트를 위해 선별된 ChatGPT Plus 가입자 그룹에게 공개되었습니다 . 이제 모든 유료 구독자는 이 기능을 직접 사용해 볼 수 있습니다.

회사는 또한 Arbor, Maple, Sol, Spruce 및 Vale의 챗봇용 5가지 새로운 목소리를 공개했습니다( 지금 바로 들어보실 수 있습니다 ). ChatGPT가 이미 제공하는 Breeze, Juniper, Cove 및 Ember의 네 가지 음성에 합류하여 표준 및 고급 음성 모드에서 모두 사용할 수 있습니다. OpenAI는 또한 현재 Advanced Voice에서 비디오 및 화면 공유가 지원되지 않지만 해당 기능은 나중에 출시될 것이라고 언급했습니다.

또한 OpenAI는 텍스트 기반 챗봇 경험의 나머지 부분에 맞춰 고급 음성 기능을 더 많이 부여하는 두 가지 도구인 메모리사용자 정의 지침을 통합하고 있습니다. 처음 출시되었을 때 Advanced Voice는 현재 진행 중인 채팅의 정보만 참조할 수 있었습니다. 기억 기능을 통해 AI는 이전 대화의 세부 사항도 기억할 수 있으므로 사용자가 반복할 필요성이 줄어듭니다. 마찬가지로, 사용자 지정 지침은 모델이 응답을 생성할 때 따라야 할 기본 규칙을 설정하도록 설계되었습니다. 예를 들어 코딩 기반 응답이 Python으로 표시되도록 지정할 수 있습니다.

고급 음성 모드의 알림 화면
오픈AI

Plus 및 Teams 구독자는 해당 기능이 계정에 활성화되면 앱 내 알림을 받게 됩니다. 안타깝게도 EU, 영국, 스위스, 아이슬란드, 노르웨이 및 리히텐슈타인에서는 Advanced Voice를 사용할 수 없습니다.

ChatGPT는 사용자와 직접 대화할 수 있는 유일한 AI가 아닙니다. 화요일의 발표는 Google이 무료 사용자를 포함한 모든 사용자에게 Gemini Live를 출시한 지 2주도 채 지나지 않아 나온 것입니다.


게시됨

카테고리

작성자

태그: