표준모델로서의 AI 정의

 

환경을 인지하고 올바르게 행동할 수 있는 Agent를 연구하는 과학분야

 

위 정의는 Russell & Norvig MA book 4th Edition의 내용을 번역 및 요약한 정의입니다. 

 

 

강의보고오기 https://youtu.be/Vo3yeWcawPk?si=N-e9LwPFQADnEwiQ

 

안녕하세요? 

 

지난 강에서 AI와 ML의 관계에 대해서 공부했습니다.

 

ML을 학습하게 전에 ML을 이용하지 않고 AI를 어떻게 구현했는가에 대한 학습을 하면 더 좋겠지만, 대부분 사람들이 머신러닝부터 공부하기 때문에 저 역시 머신러닝부터 정리할 예정입니다. 

 

"ML전에 어떻게 Intelligent Agent를 구현했나" 에 대한 내용은 국내 유트브 및 블로그에서 찾기 어려우니, Russel & Norvig의 Artificial Intelligence A Modern Approach 4th Edition 책 (이하 MA book) 을 공부하시고 어려운 점을 영문 유트브에서 검색해서 보완할 수 있습니다.  (MA book에서 검색, 논리, 추론, 지식표현 등에 대한 내용이 있습니다.)

 

ML전 내용을 공부하면, Search 알고리즘, 논리, 추론 등을 학습하며 Python에도 익숙해질 수 있습니다.  꽤 재미있고(?) 의미있다고(?) 생각합니다. 저도 시간이 되면 다시 공부하면서 정리할 계획입니다. 

 

AI의 정의 

아무튼 지금은 MA book에서 다루는 AI 정의에 대해 설명드리겠습니다. (제가 이해한 내용을 설명하므로 원문과 다를 수 있으니 의문이 생기시는 분은 꼭 원문을 찾아보시기 바랍니다.)

 

 AI 정의에 대한 MA book 원문의 내용을 일단 소개해 드리겠습니다. 제 이해가 틀렸을수도 있으니 일단 원문 먼저 인용하는게 좋을 것 같습니다.

 

"We define AI as the study of 
agents that receive percepts from the environment and perform actions"
출처: MA book Perface 중

 

 

AI has focused on the studyand construction of agents that do the right thing. What counts as the right thing is defined by the objective that we provide to the agent. This general paradigm is so pervasive that we 
might call it the standard model
출처: MA book Chapter 1. Page 4

위 내용을 참고하여, 제 나름의 정의로 내려봤습니다. 제가 내린 정의라기 보다는 번역하고 요약했다고 할 수 있겠습니다.  

"환경을 인지하고 올바르게 행동할 수 있는 Agent를 연구하는 과학분야"

 

 

Russel & Norvig은 위 정의에서 올바른(무엇이 올바른 것인가는 애매합니다.)이라는 표현을 좀 더 구체적으로 표현하기 위해 4분면으로 설명합니다. 

 

 

마지막 4사분면이 표준모델로서의 AI의 정의에 해당합니다. 합리적으로 행동하는 Agent를 연구하는 분야라는 것입니다.  2사분면의 인간의 행동을 따라하는 연구를 넘어서서, 인간보다 합리적으로 행동할 수 있는 부분을 연구하는 것입니다. 

 

이미 인공지능은 체스에서 바둑에서 인간챔피언보다 수학적 합리성은 앞서있습니다. 최근에는 개발자, 금융, 의료, 법 등과 같은 분야에서도 인간 평균보다 훨씬 뛰어남을 보이고 있습니다. 어떻게 AI는 인간 최강자를 이길 수 있었을까요? 그렇습니다. 인간을 넘어서는 합리성을 연구했기 때문입니다. 어떻게 합리적으로 행동할 수 있을까에 대한 연구라고 볼 수 있죠.

 

유트브 강의에서 비행기의 예시를 들어 왜 인간을 그대로 모방하는 것은 한계가 있을 수 있는가에 대해 설명했습니다.(MA book에서 설명하는 내용입니다.) 한번 생각해 보시 바랍니다. 

 

표준모델로서의 정의는 불충분하다. 

하지만, Russel & Norvig은 이 표준모델로서의 AI의 정의에 의문을 제기합니다. AI가 단순히 수학적, 통계적 데이터에 기반해서 Agent의 행동을 결정하고 실행한다는 것이 항상 합리적이라고는 할 수 없습니다. 수학적으로만 합리적이면 우리의 Agent는 이기기 위해 무슨 행동이든 실행할 수 있기 때문입니다. 인간사회의 도덕적 기준에 대한 이해가 없는거죠. 이 문제가 진짜 어려운 문제입니다.

 

사실 우리 인간도 어떻게 하는 것이 합리적인가 또는 정의로운가에 대한 문제를 풀 수 없는 경우가 많습니다. 마이클 샌델 교수님의 강의나 책을 보면 합리, 정의 및 공정이 얼마나 어려운 문제인지 알 수 있죠. 

 

Russel & Norvig은 이와같은 문제를 "Value Alignment Problem"이라고 말합니다. 그리고 표준 모델로서의 AI의 정의는 Value Alignment Problem이 있어  충분하지 않다는 것이죠.  

 

그래서 Modern Appoach 관점에서 AI는 단순히 목표만을 달성하는 것이 아니라 목표에 상관없이 우리에게, 즉 인간에게 이익을 주는 Agnet를 개발하는 것이 중요하다라고 말합니다. 

 

틀린 부분이 있다면 피드백 부탁드립니다. 

 

 

참고자료

그리고 표준모델로서의 AI의 정의에 대한 깊은 고찰을 위해 참고하실 수 있는 유트브 링크를 드립니다.

https://www.youtube.com/watch?v=TjZBTDzGeGg&t=2760s

MIT 강의(AI의 뜻/정의)

 

 

 

 

감사합니다.

 

+ Recent posts