세계 접근성 인식의 날 기념
음악 햅틱, 차량 모션 큐 등 선봬
팀 쿡 CEO “쉬지 않고 기술 경계 확장”
애플이 올해 하반기 시각으로 아이폰이나 아이패드를 제어할 수 있는 인공지능(AI) 기반 ‘눈 추적’ 기능을 선보인다.
17일 애플은 매년 5월 셋째 주 목요일인 ‘세계 접근성 인식의 날’을 맞아 눈 추적 기능을 비롯해 ‘음악 햅틱’, ‘차량 모션 큐’ 등 다양한 ‘손쉬운 사용 기능’들을 공개했다. 해당 기능들은 올 하반기 출시될 예정이다.
우선 눈 추적 기능은 신체적 장애가 있는 사람이 전면 카메라를 사용해 몇 초 만에 설정 및 조정을 마칠 수 있도록 돕는다. 이 과정에서 활용되는 모든 데이터는 온디바이스 머신러닝을 통해 기기 자체에 안전하게 보관되고 애플에 공유되지 않는다.
음악 햅틱은 아이폰의 ‘탭틱 엔진’을 사용해 청각 장애나 난청이 있는 사용자가 새로운 방시긍로 음악을 경험하도록 한다. 이 기능을 켜면 아이폰의 탭틱 엔진이 음악 소리에 따라 탭과 텍스처, 섬세한 진동을 구현한다.
음악 햅택은 애플 뮤직 카탈로그에 있는 수백만 곡의 음악에서 작동하며, 향후에는 수많은 개발자들이 제작한 앱에서 개발자용 애플리케이션 프로그래밍 인터페이스(API)로도 지원될 예정이다.
차량 모션 큐는 움직이는 차량에서 아이폰이나 아이패드를 사용할 때 멀미를 줄이는 데 도움을 준다. 화면 가장자리의 움직이는 점들이 차량의 움직임 변화를 나타내 주된 콘텐츠를 방해하지 않으면서 감각 충돌을 줄여주는 방식이다.
이 기능은 아이폰과 아이패드에 내장된 센서를 이용해 사용자가 이동 중인 차량에 탑승하는 순간을 인식해 적절하게 반응한다. 이 기능은 아이폰에서 자동으로 표시되도록 설정할 수 있고, 설정에서 활성화 상태를 변경할 수도 있다.
아울러 아이폰과 아이패드 사용자는 음성 단축어를 사용해 음성 비서 ‘시리’가 복잡한 작업을 수행하도록 할 수 있다. 또 다른 새로운 기능인 ‘리슨 포 에이티피칼 스피치(Listen for Atypical Speech)’는 온디바이스 머신러닝을 활용해 사용자의 말하기 패턴을 인식한다. 이는 뇌성마비, 루게릭병, 뇌졸중 등 언어 능력에 영향을 미치는 질환을 보유한 사용자들을 위해 개발됐다.
올해 비전(visionOS)에 업데이트 예정된 손쉬운 사용 기능에는 청각 장애 또는 난청이 있는 사용자를 포함한 모든 사람이 실시간 채팅과 앱 내 오디오의 음성 대화 내용을 이해할 수 있는 전방위적 실시간 자막이 포함된다.
애플 측은 “올해 새롭게 선보이는 기능들은 애플의 시스템온칩(SoC) ‘애플 실리콘’과 AI, 온디바이스 머신러닝을 활용하는 애플 하드웨어 및 소프트웨어의 역량이 응집된 결과”라고 설명했다.
팀 쿡 애플 최고경영자(CEO)는 “우리는 혁신을 통한 변화의 힘이 삶을 더욱 풍성하게 만든다고 확신한다”며 “애플이 40년에 가까운 시간 동안 손쉬운 사용을 하드웨어와 소프트웨어의 핵심 기능으로 탑재함으로써 포용적인 디자인 개발에 애쓰는 것도 바로 이러한 이유 때문”이라고 말했다.
이어 “우리는 쉬지 않고 기술의 경계를 확장해나갈 것”이라며 “이 새로운 기능들은 모든 사용자에게 가능한 최고의 경험을 선사하고자 하는 우리의 오랜 노력을 반영할 것”이라고 덧붙였다.
댓글0