Artificial Intelligence Lecture 1: Introduction Soongsil University Intelligent Systems Lab.
01_지능형 기계가 할 수 있는 것 ‘지능(intelligence)’이라는 단어의 의미 ‘생각’이라는 단어의 의미 생각을 하려면 인간이나 사물에 두뇌를 사용 즉, 지능이란 ’문제를 풀고 결정을 내리기 위해 배우고 이해하는 능력’으로 정의할 수 있음.
개요 인공지능의 정의 “인공적인 지능” 일반적으로 우리 인간이 갖는 사고, 추론, 학습, 의사전달, 지각 등 지적인 특성과 능력을 기계( 컴퓨터)에 부여하는 것을 말한다 컴퓨터, 기계 등 인공물에 있어서의 지능적 행위(intelligent behavior)를 의미 지능적 행위는 복잡한 환경에서의 문제 해결, 지각, 추론, 학습, 의사전달, 행동을 포괄 궁극적 목표는 이러한 일을 사람 이상으로 잘 수행하는 기계(컴퓨터) 개발 영리하게(Intelligent)) 신속(Speedy) 정확히(Exactly), 강력하게(Powerfully), 연속적으로(Continuously)
개요 인공지능의 정의 다양한 정의 사람의 지적 행동을 컴퓨터가 모방할 수 있도록 하는 과학 분야 지능 시스템이 갖는 능력은 인간의 정신 기능 계산 모델을 이용하여 연구(Charniak) 컴퓨터가 지능을 가질 수 있도록 하는 방법 연구(Winston) 인간이 컴퓨터보다 잘하는 일을 컴퓨터로 하여금 인간처럼 할 수 있도록 하는 연구 사람의 지적 행동을 컴퓨터가 모방할 수 있도록 하는 과학 분야 지능 시스템이 갖는 능력은 환경 적응, 추론, 사실들의 관계, 의미 이해, 진실 파악, 의사전달, 문제해결, 과거의 경험으로부터 자신(시스템)의 성능 향상 , 즉 학습, ….
개요 고등동물의 지능 컴퓨터로의 실현 지능시스템 – 뛰어난 지각, 감각 Ex) 일본 대지진 쓰나미
고등동물의 지각능력 개(Dog) 인간의 100만배 이상의 후각능력 삼풍백화점 붕괴, 2009년 중국, 1999년 대만 등 지진사태 때에 시신발굴작업 등산객 조난구조, 익사한 시체발굴 작업, 공항의 마약탐지
고등동물의 지각능력 박쥐 박쥐는 초음파를 감지 할 수 있는 청각기관 보유 1초에 20또는 30회씩 짧게 토막토막 끊어서 초음파 발사 군사용 무기개발, 탐사, 기술산업 응용가능
고등동물의 지각능력 독수리 타조 독수리의 시력은 어느 정도 일까요? 대략 10 독수리의 시력은 어느 정도 일까요? 대략 10 타조 타조는 독수리 보다 3배가 넘는 25~30의 시력 4Km 밖의 물체의 움직임을 식별할 수 있다.
고등동물의 지각능력 고양이 주간 시력은 사람의 1/10 야간 시력은 사람의 6배
The Origins of AI Birth of AI occurred when Marvin Minsky & John McCarthy organized the Dartmouth Conference in 1956 Minsky (MIT), McCarthy (MIT/Stanford), Newell & Simon (Carnegie),… Marvin Minsky John McCarthy
The Origins of AI 1950 Alan Turing’s paper, Computing Machinery and Intelligence, described what is now called “The Turing Test”. Newell and Simon predicted that "Within ten years a computer will be the world's chess champion."
AI의 역사 ① 암흑기: AI의 탄생(1943년 ~ 1956년) ② AI의 융성 : 큰 기대의 시기(1956년 ~ 1960) ③ 이행되지 않은 약속 : 현실의 직면(1960년대 후반~1970년대 초반) ④ 전문가 시스템의 기술 : 성공의 열쇠(1970년대 초반~1980년대 중반) ⑤ 기계가 학습하는 법 : 신경망의 재탄생(1980년대 중반~) ⑥ 진화 연산 : 탐색하면서 배우기(1970년대 초반~) ⑦ 지식 공학의 새로운 시대 : 단어로 계산하기(1980년대 후반~) ⑦ ⑥ ① ② ③ ④ ⑤ 1940 1950 1960 1970 1980 1990 2000 …
인공지능 튜링 모방 게임의 첫 번째 단계 질문자, 남자, 여자 한 명이 각각 독립된 방에 있고, 원격 터미널과 같은 중립 매체를 통해서만 통신할 수 있음. 질문자의 목적은 상대방에게 질문하면서 누가 남자고 누가 여자인지 알아내야 함. 남자는 자신이 여자라고 질문자를 속이고 여자는 질문자에게 자신이 여자라는 확신을 심어주는 것이 게임의 규칙임. 질문자
01_지능형 기계가 할 수 있는 것 인공지능 튜링 모방 게임의 두 번째 단계 남자 대신 질문자를 속이도록 프로그래밍한 컴퓨터를 둠. 사람이 하는 대로 실수도 하고 애매한 답변을 하는 것까지 프로그래밍함. 만약 컴퓨터가 남자가 했던 것만큼 질문자를 자주 속일 수 있다면 이 컴퓨터는 지능 행동 테스트를 통과한 것임.
Turing test AI system Experimenter Control 누가 사람이지? – The test is for a program to have a conversation (via online typed messages) with an interrogator for 5 minutes – The interrogator has to guess if the conversation is with a machine or a person – The program passes the test if it fools the interrogator 30% of the time AI system Experimenter Control E: 1부터 100까지의 합은 얼마인가? AI: 시간이 걸리니 여유를 달라. C: 5분 후에 알려주겠다. E: 답을 정확하게 계산할 수 있는가? AI: 최선을 다하겠다. C: 어느 정도 자신있다.
Eliza, 1965 Patient: You are like my father in some ways. Doctor: What resemblance do you see? Patient : You are not very aggressive. Doctor : What makes you think I am not very aggressive? Patient : You don’t argue with me. Doctor : Why do you think I don’t argue with you? Patient : You are afraid of me. Doctor : Does it please you to believe I am afraid of you? Patient : My father is afraid of everybody. Doctor : What else comes to mind when you think of your father? Patient : Bullies.
Acting Humanly: The Turing Test Turing’s Conjecture (추정) – At the end of 20 century a machine with 10 gigabytes of memory would have 30% chance of fooling a human interrogator after 5 minutes of questions • Problems with Turing test – The interrogator may be incompetent – The interrogator is too lazy to ask the questions – The human at the other hand may try to trick the interrogator – The program doesn’t have to think like a human – ….
암흑기: AI의 탄생(1943년 ~ 1956년) 02_’암흑기 ’에서 지식기반 시스템에 이르는 AI의 역사 ‘암흑기’의 공헌자 워렌 맥클록 (Warren McCulloch)과 월터 피츠(Walter Pitts) AI 분야로 인정받은 최초 연구를 소개. (1943년) AI의 첫 번째 주요 논문 발표 - 뇌의 뉴런 모델(model of neurons of brain) 인공 신경망(artificial neural networks) 모델을 제안. (1943년) 클라우드 섀넌(Claude Shannon) 일반 체스게임에서 이동횟수가 대단히 많으므로 적절한 해를 찾기 위한 체스게임 기계에 관한 논문 발표. (1950년) 해를 찾을 때 휴리스틱을 사용해야 한다는 사실을 증명. 존 맥카시(John McCarthy) 기계 지능, 인공신경망, 오토마타 이론에 관심 있는 연구자를 모아 Dartmouth 대학교에서 summer workshop 주도. (1956년) Dartmouth 워크샵에서 인공지능이라는 새로운 과학 분야가 탄생.
AI의 융성 : 큰 기대의 시기(1956년 ~ 1960) 02_’암흑기 ’에서 지식기반 시스템에 이르는 AI의 역사 존 맥카시 (John McCarthy) LISP를 정의 함. 「Programs with Common Sense 」논문에서 세상의 일반적인 문제에 대한 해를 찾는 전문가 의견 청구자(Advice Taker)라는 프로그램을 제안함. 전문가 의견 청구자는 지식 표현 및 추론 중심의 원칙을 통합하는 첫 번째 완전한 지식기반 시스템.
02_’암흑기 ’에서 지식기반 시스템에 이르는 AI의 역사 민스키 (Minsky) 형식 논리에 초점을 두었던 맥카시와 달리 민스키는 지식 표현과 추론에 관한 논리적인 사고 방식을 발전시킴. 프레임(frame) 이론은 지식 공학에 많은 공헌을 함. (1975) 프랭크 로젠블랫(Frank Rosenblatt) 학습 알고리즘이 퍼셉트론(perceptron)의 연결 강도를 조정할 수 있다는 것을 보임. 퍼셉트론 수렴 이론(perceptron convergence theorem)을 증명. 앨런 뉴웰(Allen Newell)과 허버트 사이먼(Herbert Simon) 인간의 문제해결 방식을 모방하는 범용 프로그램 GPS(General Problem Solver)을 개발. GPS는 데이터와 문제해결 기법을 구분한 첫 번째 시도임. 방법-결과 분석(means-ends analysis)이라는 기법에 기반을 두고 있음. GPS프로젝트 뉴웰과 사이먼이 개발(1961, 1972)
02_’암흑기 ’에서 지식기반 시스템에 이르는 AI의 역사 GPS(General Problem Solver) 프로젝트 방법-결과 분석(means-ends analysis)이라는 기법에 기반을 둠. GPS는 복잡한 문제를 푸는 데 실패함. 형식 논리에 기반을 둔 프로그램이 사용 가능한 연산자를 무한정 생산함. 현실 세계 문제를 푸는 데 필요한 시간과 메모리의 양 때문에 진행이 중단됨. ‘AI의 융성’의 의의 AI 연구자들은 광범위한 문제를 풀기 위한 일반 방법(general methods)을 만들어서 복잡한 사고 과정을 연구. 약한 방법(weak methods)이라고도 함. 문제 영역에 적합하지 않은 정보를 사용했고 이는 개발한 프로그램의 성능을 저하시켰음. AI 분야에 매력을 느낀 위대한 과학자들이 지식 표현, 학습 알고리즘, 신경 컴퓨팅, 단어계산과 같은 분야에 새롭고 중요한 아이디어를 제안함.
이행되지 않은 약속 : 현실의 직면(1960년대 후반~1970년대 초반) 02_’암흑기 ’에서 지식기반 시스템에 이르는 AI의 역사 이행되지 않은 약속 : 현실의 직면(1960년대 후반~1970년대 초반) AI 연구자들의 낙관과 실패 AI 연구자들은 1950년대 중반부터 1980년대까지는 인간 규모의 기반지식을 가진 범용 지능형 기계를 만들고, 2000년에는 인간의 지능을 넘어서게 하겠다고 약속함. 그러나 1970년에 이르러 그런 주장은 너무 낙관적이었다는 사실을 깨달음. AI의 프로그램의 한계 몇몇 AI 프로그램이 현실 문제를 간단하게 만든 장난감 문제 한두 개에서 일정 수준의 기계 지능을 보여줌. 하지만 대부분의 AI 프로젝트는 작업의 범위를 넓히거나 더 어려운 실 세계 문제를 다루지 못함. 1960년대 후반에 AI에 관한 주된 어려움 AI 연구자는 광범위한 문제를 해결할 일반적인 방법을 개발하고 있었기 때문에 초기 프로그램에는 특정 문제 영역에 관한 지식을 거의 포함하지 못함. 문제를 해결하기 위해 프로그램은 해를 발견할 때까지 작은 단계들을 여러 조합으로 만들어보는 탐색 전략을 적용. 작은 문제에서 잘 동작 하지만 어렵고 복잡한 큰 문제에서 잘 동작하지 않음.
02_’암흑기 ’에서 지식기반 시스템에 이르는 AI의 역사 올바른 단어를 선택하려면 주제를 먼저 이해해야 한다는 사실을 알게 됨. 그러나 이는 너무 어려운 과정이었음. AI에 대한 지원 중단 1966년에 미국 정부의 지원을 받았던 AI를 이용한 모든 번역 프로젝트 취소. 1971년에 영국 정부도 AI 연구에 대한 지원 중단.
02_’암흑기 ’에서 지식기반 시스템에 이르는 AI의 역사 전문가 시스템의 기술 : 성공의 열쇠(1970년대 초반~1980년대 중반) 지능형 기계에 대한 문제 영역을 충분히 제한해야 한다는 사실을 깨달음. 이전의 AI 연구자는 일반적이며 인간의 문제 풀이 방법을 흉내 낸 똑똑한 탐색 알고리즘과 추론 기법을 만들 수 있다고 믿음(Weak method). 하지만, Weak method 는 실패했고 이를 통해 연구자들은 전문지식이 필요한 전형적인 영역으로 문제를 제한하고 큰 추론단계로 해결해야 실용적인 결과를 얻을 수 있다는 것을 깨달음. ‘전문가 시스템의 기술’ 시대의 주요 프로젝트 DENDRAL 프로젝트 질량 스펙트럼을 결정하는 시스템. AI에서 핵심적인‘패러다임 전환’을 만듬. 범용으로 쓰이는 (지식이 빈약한) 약한 방법에서 특정 분야의 (지식 집중적인) 방법으로 전환됨.
02_’암흑기 ’에서 지식기반 시스템에 이르는 AI의 역사 MYCIN 프로젝트 전염성 혈액 질환을 진단하는 규칙기반 전문가 시스템. MYCIN은 관련 분야에서 인간 전문가와 동일한 수준으로 수행할 수 있었고, 경험이 부족한 의사보다 오히려 수준이 높았음. 시스템 개발자는 일부 규칙을 추가하거나 삭제함으로써 시스템 내의 지식을 쉽게 다룰 수 있음. MYCIN에 통합된 규칙은 지식과 관련된 불확실성을 반영함. ROSPECTOR 프로젝트 광물탐사 전문가 시스템. 지식을 표현하기 위해 규칙과 의미망(semantic network)을 결합한 구조를 사용. 인간 전문가에게서 이끌어낸 양질의 특수 규칙 형태로 휴리스틱을 사용하여 컴퓨터가 제한된 문제 영역에서 전문가와 같을 수 있음을 보였음. 지식 공학(knowledge engineering)의 개념 제시.
02_’암흑기 ’에서 지식기반 시스템에 이르는 AI의 역사 기계가 학습하는 법 : 신경망의 재탄생(1980년대 중반~) 1980년대 중반 연구자, 공학자, 전문가는 전문가 시스템을 만들기 위해서는 추론 시스템 혹은 전문가 시스템 틀을 구입해서 그 안에 규칙을 넣는 것보다 훨씬 더 많은 작업을 해야 한다는 사실을 알게 됨. AI 연구자들은 새로운 시각으로 신경망을 봄. 신경망의 부활 1960년대 후반까지 신경 컴퓨팅에 필요한 대부분의 기본 아이디어와 개념은 이미 공식화되었지만, 1980년대 중반에 해법이 나타남. 신경망 분야는 1980년대에 컴퓨터 기술이 발전하고, 신경 과학이 진보하면서 뇌 같은 정보 처리과정이 필요하여 드라마 같이 부활함.
02_’암흑기 ’에서 지식기반 시스템에 이르는 AI의 역사 진화 연산 : 탐색하면서 배우기(1970년대 초반~) AI의 진화론적 관점은 자연 선택과 유전학 계산 모델에 기반을 둠. 진화 연산(evolutionary computation)은 해 집단 모의, 성능 평가, 새로운 해 집단 생성 과정을 반복함. 진화 연산은 유전 알고리즘(genetic algorithm), 진화전략 (evolutionary strategies), 유전 프로그래밍(genetic programming)을 결합함. 진화 연산 알고리즘 유전 알고리즘 1970년대 초에 존 홀랜드(John Holland)가 도입. 홀랜드가 선택, 교차, 변이와 같은 유전적 연산을 사용하여 인공적인 ‘염색체’를 다루는 알고리즘을 개발함. 스키마 정리라는 믿을 수 있는 이론에 기반을 둠. 진화 전략 1960년대 초에 홀랜드의 유전 알고리즘과는 별도로 베를린 공과 대학교에 재학중인 잉고 레켄베르그(Ingo Rechenberg)와 한스-풀 쉬베펠(Hans-Paul Schwefel)은 새로운 최적화 방법으로 진화 전략을 제안.
02_’암흑기 ’에서 지식기반 시스템에 이르는 AI의 역사 퍼지 논리 퍼지 논리의 탄생 배경 고전적인 전문가 시스템에서 부정확함을 다루는 대부분의 방법은 확률 개념에 기반을 둠. 전문가는 보통 확률 값으로 생각하지 않고 ‘종종’, ‘일반적으로’, ‘가끔’, ‘자주’, ‘드물게’와 같은 용어로 생각함. 어렵고 복잡한 문제에 대해 전문가의 이해를 정확히 반영하는 형태로 인간의 지식을 코드화하여 적용하며, 전통적인 전문가 시스템의 계산 병목 현상(computational bottleneck)을 극복하기 위해 제안됨. 퍼지 논리의 특징 퍼지 논리는 단어의 의미를 얻고 추론과 결정을 내리기 위해 퍼지 값을 사용함. 언어 변수의 값은 숫자라기보다는 단어임.
02_’암흑기 ’에서 지식기반 시스템에 이르는 AI의 역사 퍼지 논리 (1965년~ ) 퍼지 논리의 특징 전문가 시스템과 유사하게 퍼지 시스템은 인간의 지식을 통합하기 위해 IF-THEN 규칙을 사용하지만, 이 규칙은 다음과 같이 분명하지 않음. 퍼지 논리의 공헌자 : 로트피 자데(Lotfi Zadeh) 1965년에 퍼지 논리 혹은 퍼지 집합론(fuzzy set theory)을 소개함. 퍼지 논리의 응용 사례 1987년 이래로 일본인이 설계한 식기세척기, 세탁기, 에어컨, 텔레비전, 복사기, 심지어 자동차에 성공적으로 사용됨. 대부분의 퍼지 논리 응용 사례는 제어 공학 분야에서 등장함. 하지만 퍼지 제어 시스템은 지식을 표현하는 퍼지 논리 능력의 일부만 사용함.
Philosophical extremes in AI Neats vs. Scruffies Neats focus on smaller, simplified problems that can be well-understood, then attempt to generalize lessons learned Scruffies tackle big, hard problems directly using less formal approaches GOFAIs vs. Emergents GOFAI (Good Old-Fashioned AI) works on the assumption that intelligence can and should be modeled at the symbolic level Emergents believe intelligence emerges out of the complex interaction of simple, sub-symbolic processes
Philosophical extremes in AI Subsymbolic AI: Model intelligence at a level similar to the neuron. Let such things as knowledge and planning emerge. Symbolic AI: Model such things as knowledge and planning in data structures that make sense to the programmers that build them. (blueberry (isa fruit) (shape round) (color purple) (size .4 inch))
Weak AI vs. Strong AI Philosophical extremes in AI Weak AI believes that machine intelligence need only mimic the behavior of human intelligence Strong AI demands that machine intelligence must mimic the internal processes of human intelligence, not just the external behavior
Research Prototypes • CMU ALVIN project, 1989 (Autonomous Land Vehicle In a Neural Network) – 1200 computer-generated images as training examples • Half-hour training • The salient (most important or noticeable) MIT DARPA Urban Challenge July Test Run :http://www.youtube.com/watch?v=SrSppvJxCY4&feature=related
Research Prototypes • Sony AIBO robot – Available on June 1, 1999 – Weight: 1.6 KG – Adaptive learning and growth capabilities – Simulate emotion such as happiness and anger
• Honda ASIMO (Advanced Step in Innovate MObility) Research Prototypes • Honda ASIMO (Advanced Step in Innovate MObility) – Born on 31 October, 2001 – Height: 120 CM, Weight: 52 KG http://blog.makezine.com/archive/2009/08/asimo_avoids_moving_obstacles.html?CMP=OTC-0D6B48984890
Research Prototypes – Speech recognition/synthesis MIT Oxygen Project: Spoken Interface (CMU, Delta) – Speech recognition/synthesis – Natural language understanding/generation – Machine translation
Research Prototypes In 1997, Deep Blue(IBM) beat Garry Kasparov(러). – Let IBM’s stock increase by $18 billion at that year
Why Did They Get it Wrong in AI ? (e.g. Deep Thought:Chess Game) They failed to understand at least three key things: The need for knowledge (lots of it) The need to perceive the world Scalability and the problem of complexity and exponential growth
Scalability Solving hard problems requires search in a large space. To play master-level chess requires searching about 8 ply deep. So about 358 nodes must be examined.
Exponential Growth Claude Shannon
But Chess is Easy The rules are simple enough to fit on one page The branching factor is only 35.
컴퓨터에 의한 데이터 처리와 지능적 처리 일반적인 데이터 처리 작업 인공지능적 처리 작업 자료입력 결과출력 데이타베이스 자료저장 프로그램 실행, 처리 대화(자연어) 인식(시각, 음성) 결과출력 지식베이스 자료저장 지식기반 처리 문제풀이, 계획 추론 및 학습 신경망
인공지능의 범주 사람처럼 행동하는 시스템 사람처럼 생각하는 시스템 이성적으로 생각하는 시스템 이성적으로 행동하는 시스템 Turing Test 로봇 공학 Cog - humanoid robot 사람처럼 생각하는 시스템 GPS(General Problem Solver): Newell, Simon Cognitive Science: 컴퓨터 모델, 인간 심리 비교 이성적으로 생각하는 시스템 추론 논리, Syllogism 이성적으로 행동하는 시스템 에이전트: 목표를 성취하기 위해 행동, 추론을 포함 뜨거운 물체에서 손을 갑자기 떼는 것(생각이 아니라 행동)
Acting Humanly: The Turing Test The computer would possess the following capabilities to pass the Turing test • Natural language/Speech processing • Knowledge representation • Automated reasoning • Machine learning/adaptation • Computer vision • Robotics Imitate humans or learn something from humans ?
Acting Humanly: The Turing Test However, scientists devoted much effort to studying the underlying principles of intelligence than passing Turing test ! – E.g. aircrafts vs. birds – E.g. Boats/submarines vs. fishes/dolphins/whales – E.g. perception in speech/vision
Thinking Humanly: Cognitive Modeling • Get inside the actual workings of human minds through – Introspection(내관) – Psychological experiments • Once having a sufficiently precise theory of the mind, we can express the theory as a computer program ! • Cognitive science - interdisciplinary – Computer models from AI – Experimental techniques from psychology find the theory of the mind or trace the steps of humans’ reasoning A good model of human performance → An algorithm performs well find the theory of the mind or trace the steps of humans’ reasoning
Thinking Rationally: Laws of Thought • Correct inference “Socrates is a man; all men are mortal; therefore, Socrates is mortal” – Correct premises yield correct conclusions • Formal logic – Define a precise notion for statements all things and the relations among them • Knowledge encoded in logic forms – Main considerations • Not all things can be formally repressed in logic forms • Computation complexity is high
Acting Rationally: Rational Agents
Acting Rationally: Rational Agents • An agent is just something that perceives and acts – E.g., computer agents vs. computer programs – Autonomously, adaptively, goal-directly • Acting rationally: doing the right thing – The right thing: that which is expected to maximize the goal achievement, given the available information – Don’t necessarily involving thinking/inference
Foundations of AI
Branches of AI AI Knowledge-Based System Planning and Scheduling Computer vision AI Machine Learning Speech Processing Neural Networks, Fuzzy Logic Natural Language Processing (NPL) Information Processing
Artificial Intelligence (AI)가 갖는 인간의 지적능력 Problem solving Understanding Recognition of complex patterns Judgmental reasoning Learning and adaptation Ability to respond to unexpected situations Tolerance to errors & incomplete information
Objectives of AI Applications Make machines smarter Make machines more - versatile - intelligent and - autonomous - useful
. 인공지능을 위한 지식 컴퓨터가 인공지능을 가지려면 사람이 문제 해결에 필요한 지식(Knowledge)을 주어야 함 인공지능의 다양한 기법: 공통적으로 지식 사용 지식의 특징 일반성: 상황별 중요 성질 - 공통적 사람이 이해할 수 있어야 함 오류처리 용이 완전성 보장 불가 문제 범위 축소: 지식량 줄임
인공지능 시스템의 기능적 구성 입력시스템 내부시스템 출력시스템 탐색에 의한 문제 해결 불확실한 지식의 처리 및 추론 학습 계획 지능형 에이전트 언 어 대 화 시 각 행위 작용 조작
구성 인공지능 이론 인공지능 추론 인공지능 감각 인공지능 최근 경향 전문가시스템 퍼지 이론 탐색 지식표현 불확실성 계획 학습 시각 에이전트 퍼지 이론 자연어처리 신경회로망
Discussion about benefits of intelligent System Many leading industries have adopted intelligent system technology for a wide spectrum of activities and gained a variety of benefits. Let’s discuss the benefits !!
Next Lecture ? Knowledge Representation Knowledge Based System (KBS)