2021 구글 I/O: 구글의 AI는 어디까지 왔을까요?

https://miro.medium.com/max/1200/0*PxgRBaPn9mpKANk7

Original Source Here

2021 구글 I/O: 구글의 AI는 어디까지 왔을까요?

2016년 AI 비서 ‘구글 어시스턴트’를 처음 공개했고 2017년 구글 I/O에서 구글 CEO 순다 피차이는 “우리는 컴퓨팅의 새로운 전환을 목격하고 있습니다. 모바일 퍼스트(mobile-first) 세계에서 인공지능 퍼스트(AI-first) 세계로의 전환입니다.”라는 말을 했었죠.
‘구글 I/O 2017’에서는 카메라 비전 기술인 ‘구글 렌즈’를 공개했는데요. 구글 렌즈로 사진을 찍으면 사물을 인식해 번역 및 검색 등을 돕는 기술이에요. 그다음 해, 2018년 구글은 ‘모두를 위한 AI(AI for everyone)’를 주제로 중심으로 ‘구글 듀플렉스(Google Duplex)’를 공개했어요. 구글 어시스턴트가 사람을 대신해서 전화로 예약해주는 기술이었어요. 2019년의 구글의 비전은 누구든, 어디에 살고 있든, 어떤 것을 목표로 하든 모두를 위해 더 유용한 구글을 만드는 것이었어요.

지난주에 열렸던 구글 I/O 2021에서는’중요한 순간에 도움을(Being helpful in moments that matter)’이라는 주제로 열렸는데요.

이번 구글 I/O 2021에서 많은 사람들의 관심을 받고 있는 부분은 대화의 문맥을 이해하고 답하는 LaMDA이에요!

대화 응용 프로그램 용 언어 모델: LaMDA (Language Model for Dialogue Applications) (링크)

아래 이미지를 보시면, 구글 AI가 자신이 명왕성이 되어, 사람의 질문에 답하는 모습을 볼 수 있어요! 구글 대화 언어 모델인 LaMDA가 적용돼 AI가 명왕성에 대한 학습을 바탕으로 사람과 자연스럽게 대화를 할 수 있게 된 것이에요.

LaMDA는 무엇인가요?

어떠한 대화든 무제한으로 생성할 수 있는 모델이에요. 여러분들이 대화를 할 때 특정 주제에 대해서만 대화를 할 때도 있지만, 한 주제에서 시작하여 완전히 다른 주제에서 끝나는 경우가 있죠? LaMDA는 끝없는 수의 주제에 대해 자유로운 방식으로 대화를 할 수 있어요.

LaMDA는 2020년 초 구글에서 출시한 챗봇 Meena에서 탄생했어요. Meena는 26억 개의 매개 변수에 의존하여 30 일 동안 400 억 개 이상의 단어(341GB)의 퍼블릭 도메인 및 소셜 미디어의 텍스트 데이터로 학습되었어요. Meena는 사람과 대화하는 듯한 자연스러운 대화능력을 가졌다고 평가될 정도로 높은 수준의 대화를 보여주었는데요. (자세한 내용은 Meena에 대한 논문을 통해서 살펴보세요.) Meena에서 탄생한 LaMDA의 특별함은 무엇인지 알아볼까요?

LaMDA는 BERT 및 GPT-3을 비롯한 많은 최신 언어 모델과 마찬가지로 Google Research가 2017 년에 개발하고 오픈 소스로 만든 신경망 아키텍처인 Transformer를 기반으로 해요. 해당 아키텍처는 많은 단어 또는 문장을 읽고 어떻게 서로 관계가 있고 다음에 올 단어는 무엇인지에 예측하는 것에 집중하고 있어요. (Transformer 에 대한 설명은 다음 링크로 확인해주세요.)

대부분의 다른 언어 모델과 LaMDA의 큰 차이점은 무엇인가요?

LaMDA는 대화에 대해 학습되어있어요. 학습을 통해 개방형 대화(open-ended conversation)를 구별하는 몇 가지 뉘앙스를 발견했는데요. 그 뉘앙스 중 하나는 현명함(sensibleness)이에요. 다음 반응은 대화의 콘텍스트를 잘 이해했나요? 예를 들어, 누군가 다음과 같이 말한다면:

  • “나 기타 수업을 시작했어.”라는 말을 듣고 다음과 같은 반응을 하겠죠.
  • “얼마나 즐거울까! 우리 엄마는 기타 연주를 좋아하는 마틴이라는 빈티지 기타가 있어.”

해당 응답은 앞의 대화의 뉘앙스를 파악했고 구체적으로 대답을 해서 만족스러운 ‘현명한’답변이라고 볼 수 있어요. 물론, “좋아요” 또는 “모르겠어요”는 대부분의 질문에 대한 현명한 답변이라고도 볼 수 있어요.

MUM (Multitask Unified Model) (링크)

텍스트뿐만 아니라 이미지, 음성, 영상을 활용하는 것도 가능한가요?

네, LaMDA가 텍스트 기반의 대화라면 MUM은 75개 이상의 언어로 학습된 언어 모델로, 텍스트, 이미지, 오디오, 비디오를 활용해 의사소통할 수 있는 모델로 확장된다고 하네요. (현재는 이미지와 텍스트까지만 학습되어 있어요.) 검색된 단어를 통해 문맥과 의도를 파악해 최적의 검색 결과를 노출시킬 수도록 하는 것이 목표라고 하네요.

실무와 학계에서는 Google I/O 2021에 대해 어떻게 바라보나요?

지난 6월 29일 토요일 미래학자 정지훈 교수님, SKT에서 NUGU를 개발하셨던 김유신 (Yushin David Kim) 상무님, AI Lab 하정우 소장님, AI Network 김민현 대표님이 Google I/O 2021에 대한 대화를 나누었는데요, LaMDA와 MUM에 대한 이야기가 위주로 진행되었습니다.

최근의 AI 연구 동향은 대 Transformer 시대라고 생각해도 되지 않을까라고 보이는데, AI 기술 개발에서 함께 고민해야 할 이슈에 대해서 정지훈 교수님께서 질문을 던지셨는데, 좋을 답변이 나왔습니다.

하정우 박사님께서는 “Transformer 아키텍처 특성 덕분에 스케일업에 집중하다 보니, 크기가 커질수록 성능이 좋아진다라는 것도 실험적으로 알려져 있기 때문에, 큰 연구 스케일, 사람 많고, 데이터 많은 곳이 유리할 수밖에 없다.” 고 하시며 “하나의 기업이 해결할 수 있는 문제가 아니기 때문에, 생태계 관점에서 기술들을 잘 활용할 수 있는 플레이어들의 다양성을 이룰 수 있는 생태계를 잘 구성하는 것이 중요한 것 같다.”라고 하셨고,

김유신 상무님께서는 “비전 쪽은 외국의 연구를 잘 차용할 것도 많은데, Language 모델은 한국어를 사용하는 국가도 많이 없고, 우리나라 회사 밖에 할 수 없어서 우리나라 기업들이 합쳐서 함께 만들어나가고, 활용할 수 있는 분야를 내놓는 것이 중요할 것 같다.”라고 하셨습니다.

이에 대해 김민현 대표님은 구글의 검색방식이 Understanding이 가능한 검색으로 넘어가간 계기가 되어, 앞으로 검색의 새로운 진보를 기대할 수 있을 것 같고, 새로운 검색 시대에는 AI 생태계의 역할이 중요할 것 같다.”고 말하였습니다.

AI 기술 개발을 서포트하기 위해 2021 Google I/O ML키노트에서 관통하는 메시지는 무엇이었나요?

“ML 전문가가 될 필요가 없다.(Don’t need to be an ML expert.)”고 말하며 발표를 시작했어요. 구글은 누구나 쉽게 본인이 해결하고 싶은 문제를 머신러닝 툴로 해결할 수 있도록 새로운 기술을 제공하고 있어요.

5년 전에, 텐서플로우라는 오픈 소스 플랫폼을 런치하면서 머신러닝 연구에 박차를 가했고, 많은 개발자들이 AI 애플리케이션을 개발할 수 있는 좋은 환경을 만들어줬어요. 2021년 구글 I/O에서 어떻게 사람들이 쉽게 머신러닝을 활용할 수 있도록 해결하고 있나요?

Know Your Data (링크)

데이터 세트 탐색 도구 Know Your Data는 연구원, 엔지니어, 프로덕트 팀, 결정권자들이 데이터 셋을 이해하고 잠재적인 편향이나 불균형을 찾아내어 데이터의 질을 향상하는데 도움을 주는 Google의 새로운 웹 기반 데이터 세트 탐색 도구예요.

Know Your Data는 어떻게 작동하나요?

  • Know Your Data를 통해 사용자는 데이터 세트에 원래 없었던 정보로 데이터 세트를 탐색할 수 있어요. 이 도구는 Cloud Vision 라벨, Cloud Vision 얼굴 감지, 일반 이미지 품질 측정 항목 (예 : 선명도 및 밝기)과 같은 머신 러닝 모델을 사용하여 기존 데이터에 주석을 추가해요. Apache Beam 파이프 라인에서 이러한 주석을 계산해요. 그런 다음 웹 서버에 데이터베이스를 로드하여 상호 작용을 활성화해해요. 통계는 클릭할 때마다 바로 계산해서 보여준다고 해요.

Know Your Data에서 내 데이터를 실행할 수 있나요?

  • 지금은 이미지 기반 TensorFlow 데이터 세트에 대해서만 Know Your Data를 제공하고 있어요.

Know Your Data는 다른 유형의 데이터에서도 작동하나요?

  • 네, 텍스트 데이터 세트를 포함한 다른 양식의 데이터도 작동할 수 있도록 적극적으로 노력하고 있다고해요.

모델 분석은 어떻게 되나요?

  • 모델 분석 툴도 추가하기 위해 적극적으로 고려하고 있다고 해요.

“데이터 과학자들이 AI 모델 개발과 실험에서 시간이 지연되는 단점을 개선하기 위해서” 관리형 클라우드 서비스를 개발했다고 들었는데, 어떤 서비스인가요?

Vertex AI (링크)

AI 모델의 배포 및 유지 관리를 가속화할 수있는 머신러닝 관리형 클라우드 서비스인 Vertex AI의 일반 공급을 발표했어요. Vertex AI는 경쟁 플랫폼에 비해 모델을 훈련하는 데 거의 80 % 적은 코드 라인이 필요해서 데이터 과학자 및 ML 엔지니어는 모든 수준의 전문 지식에 걸쳐 MLOps를 구현하여 전체 개발 과정에서 ML 프로젝트를 효율적으로 구축하고 관리할 수 ​​있어요.

오늘날 데이터 과학자들은 ML 솔루션을 수동으로 연결하여 모델 개발 및 실험에서 지연 시간을 만들어 생산에 사용되는 모델이 거의 부족한 문제를 해결하려고 하였는데, 구글에서 이러한 문제를 해결하기 위해 Vertex AI는 하나의 통합 UI 및 API로 ML을 구축하기 위한 Google Cloud 서비스를 통합하여 대규모로 머신 러닝 모델을 구축, 학습, 배포하는 프로세스를 단순화해요. 이 단일 환경에서 고객은 모델을 실험에서 프로덕션으로 더 빠르게 이동하고, 패턴과 이상을 보다 효율적으로 발견하고, 더 나은 예측과 의사 결정을 내리고, 일반적으로 변화하는 시장에 직면하여 더 민첩해질 수 있어요.

Vertex AI가 고객을 돕는 네 가지 방법을 위해 개발됐다고 하는데 어떤 방법들인가요?

1. 고객이 버텍스AI를 통해 구축 단계인 머신러닝 속도를 높이는 것

2. 고객이 사용할 수 있는 기술 가운데 구글이 최고 수준의 기능을 제공하는 것

3. 뛰어난 확장성을 갖춘 워크플로우를 제공하는 것이고 다음으로는 고객이 적절한 모델 관리와 거버넌스에 필요한 모든 것을 갖추고 있는지 확인하는 것

4. 궁극적으로는 최고속도를 자랑하는 버텍스AI를 통해 고객기업이 ROI(투자자본 수익률)를 높이는 것

딥러닝 프로그램을 쉽게 구현할 수 있도록 다양한 기능을 제공해주는 라이브러리인 TensorFlow Lite에 추가된 사항을 들었는데 어떤 것들이 있나요?

첫째, 개발자는 TensorFlow Lite Model Maker와 같은 도구를 사용하여 TensorFlow Lite 모델을 만들 수 있어요. 개발자는 더 이상 변환없이 브라우저에서 모델을 실행할 수 있어요. 즉, 모바일 용의 버전과 브라우저 용의 JS 버전이 필요하지 않는거죠. Google은 또한 올해 말 학습 기능을 추가할 계획이에요.

둘째, Google은 TensorFlow Lite 런타임(runtime)을 Google Play 서비스에 추가해요 “이제 앱에서 TF (TensorFlow) Lite를 별도로 번들링 할 필요가 없어요 이는 추가적인 APK 크기 증가가 없음을 의미해요.”라고 Sarah Sirajuddin(구글의 TensorFlow & ML 팀의 프로덕트 디렉터)는 설명했어요. ML Kit를 사용하여 개발자는 턴키(turnkey) 모델과 사용자 지정 모델을 빠르고 쉽게 배포할 수 있어요. Firebase를 사용하는 개발자는 전체 앱을 업데이트하지 않고도 손쉽게 배포 및 업데이트할 수 있도록 모델을 호스팅 할 수 있어요. ML Kit에 따라 Google은 포즈 감지, 디지털 잉크 인식, 셀카 분할, 엔티티 추출 등 4 개의 새로운 모델을 출시했어요.

시작된 과정 Google은 마이크로 컨트롤러 및 임베디드 시스템의 ML이 엄청난 변형 잠재력을 가지고 있다고 믿고 있어요. 이 기술 대기업은 Harvard University와 제휴하여 임베디드 장치가 포함된 ML 과정을 제공했어요. “주변 교육에 대한 액세스를 확대하고 모든 개발자가 더 쉽게 액세스 할 수 있도록하기 위해서”라고 Sarah Sirajuddin(구글의 TensorFlow & ML 팀의 프로덕트 디렉터)는 말했어요.

이 과정은 다음을 다루고 있어요.

  • ML 및 임베디드 장치의 기본 사항
  • ML을 위한 효과적인 데이터 수집
  • 작은 ML 모델 학습
  • 리소스가 제한된 기기를 위한 ML 모델 최적화
  • 작은 ML 애플리케이션 구상 및 설계
  • 마이크로 컨트롤러 용 TensorFlow Lite 프로그래밍

Google은 또한 ML을 사용하는 마이크로 컨트롤러에서 Navajo 언어(Navajo는 미국의 남서부 지역에 거주해온 아메리카 원주민 인디언 부족)를 인식하기 위해 Harvard University 및 Navajo Technical University와 함께 프로젝트를 진행하고 있어요.

Dev Board Micro

개발 및 배포 시 개발자를 지원하도록 설계된 Google의 Coral Project는 올해 말에 새로운 Dev Board Micro를 출시할 예정이에요.

On-device ML

Google은 turnkey에서 커스텀 모델, 크로스 플랫폼 모바일에서 브라우저 내까지 개발자의 선택을 안내하는 새로운 온 디바이스 ML 사이트를 출시했어요.

온 디바이스 ML에는 댓글 스팸 감지, 제품 이미지 검색 등 다양한 시나리오에 사용되는 정보, 링크 및 end-to-end 학습 경로가 포함되어있어 개발자를 0에서부터 사용자 지정 모델 및 앱 구현까지 안내해요. 새로 출시된 학습 경로는 개발자에게 일반적인 ML 시나리오 (동영상, 코드 및 코드 랩 포함)를 사용하여 앱을 빌드하는 방법을 가르치기 위해 설계되었어요.

마치며

LaMDA와 MUM과 같은 거대 모델의 실제 사용이 가속화되면서 AI 기술들을 잘 활용할 수 있는 플레이어들이 모여서 AI기술을 함께 개발하고 가치를 만들어나가는 생태계를 구축하는 것의 중요성을 한번 더 깨닫게 되었는데요. AI Network는 AI에 관심 있는 누구나 함께 AI 기술과 가치를 만들어나갈 수 있는 생태계를 구축하고 있어요. AI에 관심 있는 사람들이라면 누구나 쉽게 오픈된 AI 모델을 활용해서 자신의 데이터로 학습시켜 새로운 AI 모델을 만들 수 있는 Teachable NLP부터, 본인이 만든 AI 모델을 배포하여 이를 서비스화까지 할 수 있는 Ainize까지, AI 생태계인 AI Network에 대해 다음 링크를 통해서 자세히 확인해보세요.

AI/ML

Trending AI/ML Article Identified & Digested via Granola by Ramsey Elbasheer; a Machine-Driven RSS Bot

%d bloggers like this: