인공지능 블랙박스 시대 종언 가이드 랩스 설명 가능한 LLM 스테를링-8B 발표

이미지
그동안 인공지능은 수조 개의 파라미터가 얽힌 신경망 속에서 왜 그런 답변을 내놓는지 알 수 없는 블랙박스로 여겨져 왔습니다. 하지만 샌프란시스코의 유망 스타트업 가이드 랩스가 모든 토큰의 출처를 추적할 수 있는 혁신적인 80억 파라미터 규모의 언어 모델 Steerling-8B를 공개하며 판도를 뒤흔들고 있습니다. 인공지능의 투명성과 신뢰성을 획기적으로 높인 이번 발표의 핵심 기술과 미래 산업에 미칠 파급력을 자세히 살펴보겠습니다. 💡 인공지능의 내부를 들여다보는 개념 레이어의 혁신 기존의 딥러닝 모델들은 결과값이 도출되는 과정을 사후에 분석하는 일종의 모델 신경과학 방식에 의존했습니다. 가이드 랩스의 CEO 줄리어스 아데바요와 최고과학책임자 아야 압델살람 이스마일은 이 접근법을 완전히 뒤집었습니다. 이들은 모델 설계 단계부터 개념 레이어(Concept Layer)를 삽입하여 데이터를 추적 가능한 카테고리로 분류하는 새로운 아키텍처를 구축했습니다. 이를 통해 Steerling-8B는 모델이 생성하는 모든 토큰이 훈련 데이터의 어느 부분에서 기인했는지를 명확히 밝혀낼 수 있게 되었습니다. ✅ 할루시네이션과 편향성 문제를 해결할 정교한 통제력 설명 가능한 AI의 등장은 인공지능의 고질적인 문제인 환각 현상(Hallucination)과 아첨 행위(Sycophancy)를 제어하는 데 결정적인 역할을 합니다. 예를 들어 성별이나 인종과 같은 민감한 개념이 모델 내부에서 어떻게 인코딩되는지 파악하고, 필요에 따라 특정 연결을 신뢰성 있게 활성화하거나 비활성화할 수 있습니다. 줄리어스 아데바요는 MIT 박사 과정 시절인 2018년에 발표한 논문을 통해 기존 모델 해석 방식의 한계를 지적한 바 있으며, Steerling-8B는 그 연구 결과가 실무 엔지니어링으로 구현된 최대 규모의 증명 사례입니다. 🔍 규제 산업의 게임 체인저 금융과 과학 분야의 활용 투명성이 필수적인 규제 산업에서 Steerling-8B의 가치는 더욱 빛납니다. 금융권에서 대...

Apple Intelligence가 iPhone에서 Siri 사용 방식 변경

Apple은 Siri에 Apple Intelligence와 ChatGPT 통합을 통해 새로운 기능과 업데이트를 추가했습니다. 

Siri는 이제 ChatGPT를 활용해 더 나은 답변을 제공하고, 자연어 이해 능력이 향상되었습니다. 

또한, Siri에게 타이핑할 수 있는 기능이 추가되어 조용한 환경에서도 쉽게 사용할 수 있습니다. 

앞으로 Siri는 개인적인 맥락을 인식하고 화면에 있는 내용을 이해하여 더 많은 작업을 수행할 수 있게 될 것입니다.



Siri의 혁신

Apple은 Siri의 혁신 부족에 대한 오랜 논의 끝에, 더 스마트한 디지털 어시스턴트를 출시할 것을 약속했습니다. 

Siri는 iOS 18에서 Apple Intelligence와 ChatGPT 통합 덕분에 새로운 기능과 업데이트를 받게 됩니다. Siri의 새로운 기능 중 일부는 아직 사용할 수 없지만, 곧 출시될 예정입니다.


ChatGPT 통합

Siri는 이제 OpenAI의 ChatGPT를 활용하여 자체적으로 답변할 수 없는 특정 질문에 답할 수 있습니다. 

예를 들어, 정원에서 수확한 재료로 요리할 아이디어가 필요하다면 Siri에게 물어보면, Siri가 자동으로 ChatGPT에 정보를 전달하여 몇 가지 옵션을 생성해줍니다. 

이 통합을 사용하려면 ChatGPT 계정이 필요하지 않지만, Siri가 서비스를 사용할 수 있도록 권한을 부여해야 합니다.


향상된 언어 이해

Apple은 Siri가 자연어를 더 잘 이해할 수 있도록 하여 사람들이 Siri와 더 쉽게 소통할 수 있게 만들고 있습니다. Siri와 대화할 때 말을 더듬더라도 Siri는 여전히 사용자의 말을 이해할 수 있습니다. 

예를 들어, 이제 "Siri, 알람을 설정해줘, 아 잠깐만, 타이머를 10분으로 설정해줘. 아니, 5분으로 해줘."라고 말하면 Siri는 사용자가 무엇을 요청하는지 이해합니다. 

또한, Siri에게 후속 질문을 할 때 맥락을 반복할 필요가 없게 됩니다. 

예를 들어, Siri에게 다음 가족 모임이 어디서 열릴지 물어보면 위치를 알려줍니다. 그 후 "거기 날씨는 어떨까?"라고 물어보면 위치를 다시 언급하지 않아도 됩니다.


Siri에게 타이핑하기

지금까지는 음성으로만 Siri와 소통할 수 있었습니다. Apple Intelligence 덕분에 이제는 소리 내지 않고 Siri에게 타이핑할 수 있습니다. iPhone이나 iPad 화면에서 버튼을 두 번 탭하여 Siri에게 질문할 수 있습니다. 조용한 환경에서 소리 내지 않고 Siri와 소통해야 할 때 유용합니다. 또는 시끄러운 환경에서 Siri에게 타이핑하면 질문이 명확하게 이해될 수 있습니다.


곧 출시될 기능

위에 나열된 기능들은 현재 사용할 수 있지만, Apple은 Siri를 위한 추가 Apple Intelligence 기반 기능을 출시할 것을 약속했습니다. 

Siri는 곧 사용자의 개인적인 맥락을 인식하게 되어, 사용자에게 고유한 작업을 수행할 수 있게 됩니다. Siri는 기기에 있는 정보를 사용하여 사용자가 찾고 있는 것을 찾을 수 있습니다. 

예를 들어, 친구 Alice가 텍스트나 이메일로 레시피를 공유했는지 기억나지 않는다면, Siri에게 "며칠 전에 Alice가 보낸 레시피를 찾아줘"라고 요청할 수 있습니다. 또는 비행기 예약 시 여권 번호가 필요할 때, Siri에게 이메일이나 이미지에서 여권 번호를 찾아서 자동으로 입력해달라고 요청할 수 있습니다. 

또한, Siri는 곧 화면에 있는 내용을 이해하고 기기에서 현재 보고 있는 것에 따라 작업을 수행할 수 있게 됩니다. 

예를 들어, 친구가 새로운 주소를 문자로 보내면 Siri에게 그 주소를 연락처 카드에 추가해달라고 요청할 수 있습니다. 

Siri는 또한 앱 내 및 앱 간 작업을 수행할 수 있게 됩니다. 

예를 들어, Siri에게 사진 앱에서 사진을 개선해달라고 요청한 다음, 디지털 어시스턴트에게 메시지에서 특정 사람에게 보내달라고 요청할 수 있습니다. 

별도의 앱을 열거나 작업을 완료할 필요 없이 Siri가 두 앱에서 작업을 수행할 수 있습니다.


 

이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다

댓글

이 블로그의 인기 게시물

로봇 산업의 뜨거운 이슈 - 휴머노이드 경쟁과 로봇 기업의 동향

💧 물로 가는 자동차 ‘아쿠아 드라이브’, 일론 머스크가 정말 공개했을까?

방한 외국인 소비 패턴 변화와 향후 전망: 오렌지스퀘어 보고서 분석