NewGen

[기사번역]GPT-3 의 핵심은 양자망으로 연결되는 네트워크 본문

QUANTUM COMPUTING

[기사번역]GPT-3 의 핵심은 양자망으로 연결되는 네트워크

Deep Learning 2021. 7. 20. 17:15

아래 링크가 원문

https://www.bbntimes.com/science/why-global-artificial-intelligence-is-the-next-big-thing

 

Why Global Artificial Intelligence is the Next Big Thing

Global Artificial Intelligence is emerging as the most disruptive technology of the 21st century.

www.bbntimes.com

 

나름 재밌는 기사가있어서 스크랩 해둠.

구글번역기로 돌림.

글로벌 인공 지능은 21세기의 가장 파괴적인 기술로 부상하고 있습니다.

동력엔진, 전기, 전자, 기계화, 제어이론(자동화), 자동차, 컴퓨터, 인터넷, 나노기술, 생명공학 등 기존 및 신흥 모든 분야의 디지털 범용 기술(GPT)로 빠르게 성장하고 있습니다. , 로봇 공학 및 기계 학습.

산업 전반에 걸친 디지털 혁신의 사회 및 산업에 대한 결합 가치는 향후 10년 동안 100조 달러 이상일 수 있습니다. 모바일, 클라우드, 인공 지능, 센서 및 분석과 같은 디지털 기술의 "조합" 효과는 기하급수적으로 발전을 가속화하고 있지만 비즈니스, 정책 입안자 및 NGO 간의 협력 없이는 완전한 잠재력을 달성할 수 없습니다 .

페이스북, 아마존, 애플, 마이크로소프트, 알파벳의 구글, FAAMG와 같이 시장에서 가장 실적이 좋은 기술 주식 5개는 머신 러닝, 딥 러닝 또는 데이터 분석 클라우드 플랫폼, 모바일 및 데스크탑을 아우르는 미국의 Narrow AI 기술 리더를 나타냅니다. 시스템, 호스팅 서비스, 온라인 운영 및 소프트웨어 제품. FAAMG 5개 기업의 시가총액은 1년 전 약 4조5000억 달러에서 현재는 7조6000억 달러를 넘어 모두 미국 상위 10대 기업에 속한다. 겸손한 Gartner의 예측에 따르면, NAI에서 파생된 총 비즈니스 가치는 2022년에 3조 9천억 달러에 이를 것으로 예상됩니다.

Global AI(GAI)는 Narrow AI, Machine Learning, Deep Learning, Symbolic AI, General, Strong 또는 Human-level AI 및 Superhuman AI를 고급 데이터 분석, 컴퓨팅 온톨로지, 사이버네틱스 및 로봇과 통합하고 있습니다. 그것은 기초 과학 세계의 지식, 컴퓨터 과학, 수학, 통계, 데이터 과학, 심리학, 언어학, 의미론, 온톨로지 및 철학에 의존합니다.

GAI는 모든 사람과 모든 것을 위한 인공 지능 AI4EE로 배포될 인과적 기계 지능 및 학습 플랫폼으로 설계되었습니다.

GAI는 혁신적인 기업, 정부, 정책 입안자, NGO, 국제기구, 시민 사회, 학계, 미디어 및 예술.

AI4EE 플랫폼은 현실 세계를 전체적으로 그리고 부분적으로 계산할 수 있습니다[예: 화재 기술 및 인간 문명과 같은 다양한 인간 영역의 인과 관계; 세계화와 정치권력; 기후 변화와 소비; 경제 성장과 생태 파괴; 미래 경제, 실업 및 세계적 대유행 ; 부와 부패, 세계의 미래에 대한 전망 등]. 국가의 미래에 대한 관점을 결정  하고  중요한 영역에서 앞으로의 변화에 ​​대해 조직하는 방법을 정의하는 데에도 중요합니다.

  • 코로나19를 이겨내고 글로벌 팬데믹을 예방합니다.
  • 경제 경쟁력 및 사회적 이동성 육성
  • 사회적, 경제적, 인종적 형평성 향상
  • 저탄소 스마트 경제 구축
  • 지속 가능하고 친환경적이며 스마트하고 포용적인 미래 만들기

정기적으로 유지되고 진화하고 혁명적인 기술은 물론 매우 파괴적인 기술, 혁신 및 발명품이 있습니다. 그 위에는 전력이나 IT와 같이 국가적, 세계적 차원에서 사회 전체와 경제 전체에 영향을 미칠 수 있는 범용 기술이 있습니다.

다음은 현재와 미래에 가장 파괴적인 기술의 몇 가지 예이며 향후 5~10년 동안 제안된 가치입니다.

  • 인공 지능, 50조 달러
  • 머신 러닝, 딥 러닝, 5조 달러
  • 사물 인터넷(IoT), 스마트폰, 5조 달러
  • 로봇 공학, 5조 달러
  • 혼합 현실, 5조 달러
  • 지속 가능한 에너지, 5조 달러
  • 블록체인 기술, 5조 달러
  • 3-4D 프린팅, 5조 달러
  • 의료 혁신, 5조 달러
  • 고속 여행, 5조 달러
  • 우주 탐사 및 로봇 식민화, 5조 달러

"AI"는 최근 몇 년 동안 기술, 미디어, 비즈니스, 산업, 정부 및 시민 생활에서 증가하는 관심의 대상이 되어온 구성물이 되고 있습니다.

오늘날 AI는 논란의 대상이다. 협소/약, 일반/강/인간 수준 및 초 인공 지능, 또는 기계 학습, 딥 러닝, 강화 학습, 지도 및 비지도 학습, 신경망, 베이지안 네트워크, NLP 및 기타 많은 것에 대해 들었을 것입니다. 혼란스러운 용어, 모두 AI 기술이라고 합니다.

이전에 인공 지능으로 간주되었던 많은 규칙과 논리 기반 시스템은 더 이상 AI가 아닙니다. 대조적으로, 데이터에서 패턴을 분석하고 찾는 시스템은 기계 학습으로 불리며 인간의 특정 지능적 행동이나 인지 기능, 능력, 능력 및 기술을 모방하거나 모방하는 Narrow and Weak AI의 지배적인 형태로 널리 홍보됩니다. 오늘날의 AI/ML/DL은 전문가 시스템, 자연어 처리, 음성 인식, 머신 비전 등과 같은 특정 응용 프로그램과 함께 기계, 특히 컴퓨터 시스템에 의한 인간 지능 프로세스의 시뮬레이션, 모방 또는 모방에 관한 것입니다.

In general, Narrow ML/AI systems work by inputting large amounts of labelled training data, analyzing the data for correlations and patterns, and using these patterns to output predictions about future states. NAI requires a large corpora of examples by training its ML models to encode the general distribution of the problem into its parameters on a specialized hardware and software for writing and training machine learning algorithms in terms of high-level programming language such as Python, R or Java. But in the real world, distributions are often changeful, which cannot be considered and controlled in the training data. For instance, any DNNs trained on millions of images can easily fail or be compromised by adversarial cyberattacks when they see objects under minor changes in the environment, new lighting conditions or from slightly different angles or against new backgrounds.

이러한 독립적이고 동일하게 분포된 (iid) 데이터 기반, 수치 및 통계적 좁고 약한 ML/AI의 주요 예 중 하나는 1,750억 개의 매개변수/시냅스가 있는 GPT-3이며, 인간의 뇌에는 1,000조 개의 뉴런이 있는 860억 개의 뉴런이 있습니다. 적어도 시냅스.

1,750억 개의 매개변수로 GPT 3을 훈련하는 데 드는 비용은 460만 달러입니다.

이제 인간 두뇌 크기의 언어 모델을 훈련시키는 데 비용이 얼마나 들까요?

GPT 4: (인간 두뇌) 100조 매개변수: 2020년 비용 26억 달러; 비용 2024년 미화 3억 2,500만 달러; 비용 2028년 미화 4천만 달러; 비용 2032년 미화 500만 달러.

무의미한 데이터 상관 관계 및 패턴으로 전 세계의 모든 데이터를 보유하고 있어 장기간에 걸쳐 머신 트레이닝 비용을 절감할 수도 있습니다. 그러나 효과적인 지능이 없으면 지식, 이해, 학습 또는 지혜를 언급하지 않고 정보로 변환되지 않습니다.

Narrow Anthropomorphic AI 접근 방식을 일반화하려면 BRAIN/MIND 기반 AI를 일반화하는 REALITY 기반 AI를 설계, 개발, 배포 및 배포해야 합니다. 이는 물리적, 자연적, 정신적, 사회적, 디지털 또는 가상의 모든 환경과 효과적이고 지속 가능하게 상호 작용하기 위해 세계를 모델링 및 시뮬레이션하는 시너지 인간-기계 디지털 초지능[디지털 슈퍼마인드]으로 운영될 수 있습니다. 이것은 인간, 기계 또는 가상의 외계인 지능과 같은 모든 복잡성의 지능 시스템을 포괄하는 일반적인 정의입니다.

AI4EE 플랫폼의 심장과 영혼 또는 엔진은 세계의 일관되고 일관되며 포괄적인 인과 모델로 구성됩니다.

예를 들어, Amazon, Google 또는 Facebook의 ML/NAI/DL 클라우드 플랫폼이 심층 신경망을 실행하는 경우 해당 신피질, 신오팔리움, 등피질 또는 포유류의 대뇌 피질은 감각 지각, 인지, 의식적 사고, 운동 제어 및 명령, 공간 추론 및 언어 이해 및 생성과 같은 고차원 뇌 기능에 관여합니다.

"전자 디지털 신피질"의 역할은 AI4EE가 Neuralink의 CEO인 E. Musk가 다음과 같이 발전시킨 디지털 초지능 계층으로 수행할 수 있습니다.

전반적으로 Global AI4EE 모델은 아래 샘플과 같이 통계적 Narrow AI 및 ML의 좁은 맥락에서 생성된 선형 특이적/귀납적/상향식/시공간 인과 모델의 증가하는 R&D의 기초가 됩니다.

  • Judea Pearl과 Dana Mackenzie의 Book of Why. 원인과 결과의 새로운 과학
  • 머신러닝의 인과관계 소개
  • 인과 관계 및 구조 방정식 모델에 대한 8가지 신화
  • 딥 러닝은 세상이 그렇게 돌아가는 이유를 밝힐 수 있습니다.
  • 진정으로 지능적인 기계를 만들려면 원인과 결과를 가르쳐라
  • 기계 학습의 인과 추론
  • 인과 베이지안 네트워크: 더 공정한 기계 학습을 가능하게 하는 유연한 도구
  • 머신러닝의 인과관계
  • 베이지안 네트워크와 인과 관계 탐색
  • 인과적 AI의 경우
  • 인과적 딥 러닝은 AI가 이유를 묻도록 가르칩니다.

일반화 및 전이와 같은 좁은 인과적 AI 가정으로 인해, 인과적 표현 학습을 향하여 기사에서 언급한 바와 같이 훨씬 더 심층적인 연구가 부족합니다.

a) Learning Non-Linear Causal Relations at Scale (1) understanding under which conditions nonlinear causal relations can be learned; (2) which training frameworks allow to best exploit the scalability of machine learning approaches; and (3) providing compelling evidence on the advantages over (noncausal) statistical representations in terms of generalization, repurposing, and transfer of causal modules on real-world tasks. b) Learning Causal Variables. causal representation learning, the discovery of high-level causal variables from low-level observations; c) Understanding the Biases of Existing Deep Learning Approaches; d) Learning Causally Correct Models of the World and the Agent. Building a causal description for both a model of the agent and the environment (world models) for robust and 다재다능한 모델 기반 강화 학습 .

인과 기계 지능 및 학습은 세계[환경, 영역, 상황], 데이터[지각, 지각, 센서], 정보[인지, 기억], 지식[학습, 사고, 추론], 지혜[학습]의 딥 러닝 인과 주기를 포함합니다. , 이해, 결정], 상호작용[행동, 행동, 실행, 적응, 변화], 그리고 세계…

본질적으로 글로벌 AI 모델링은 다음으로 구성되어야 합니다.

기본 가정: 사전 지식, 세계 또는 문제(일차 원인, 원칙 및 요소)에 대한 지식, 이해 또는 사고의 기초.

글로벌 모델: 세계에 대한 일관되고 포괄적이며 일관된 표현, 세계의 일반적인 견해 및 자동 추론 방식의 주요 가정(즉, 개념적, 존재론적/인과적, 논리적, 과학적 또는 수학적/통계적 모델, 방정식 또는 시뮬레이션 또는 그림과 단어의 신경망 모델).

글로벌 데이터: 실제 세계에 대해 측정, 계산, 관찰 또는 학습하는 것(사실 및 통계, 변수 및 가치, 세계 데이터, 정보 및 지식으로 체계화됨).

인과 관계 마스터 알고리즘(기계 학습, 심층 학습 또는 심층 신경망과 같은 규칙 기반 및 통계 학습 알고리즘, 모델, 프로그램 및 기술 통합)

일반 AI 소프트웨어/하드웨어(AI 칩, AI 슈퍼컴퓨터, 클라우드 AI, 엣지 AI, AI 만물인터넷[사물, 사람, 프로세스 및 서비스])

유니버설 인공 지능과 실제 AI 모델의 비용

현실의 사다리, 인과관계와 정신, 과학과 기술, 인간 지능과 비인간 지능(AI)

여전히 인과 관계는 CausalWorld의 AA 사다리에서와 같이 두 변수 간의 연결인 단순한 의존성, 연관, 상관 관계 또는 통계적 관계와 구별되어야 합니다.

  • 우연, 통계적 연관성, 인과관계의 통계적 상관관계로서의 인과관계, 상관관계(무작위 과정, 변수, 확률적 오류), 무작위 데이터 패턴, 관찰, 규칙성에 대한 Hume의 관찰, Karl Pearson의 원인은 과학에서 설 자리가 없음, Russell의 "법칙 인과 관계" "과거의 유물" /관측 빅 데이터 과학/통계 물리학/통계 AI/ML/DL ["The End of the Theory: The Data Deluge Makes the Scientific Method Obsolete"]
  • 공통 효과 관계, 편향(시스템 오류, 공통 효과 공유, 충돌기)/통계, 경험 과학
  • 공통 원인 관계,  C onfounding (일반적인 원인, 교란 요인) / 통계, 실증 과학
  • 인과 관계, 사슬, 원인과 결과의 인과 관계(물질적, 형식적, 효율적 및 최종 원인, 확률적 인과성, P(E|C) > P(E|not-C), 수행 및 개입, 반사실적 조건" 첫 번째 대상은 없었고 두 번째 대상은 존재한 적이 없습니다", 선형, 연쇄, 확률 또는 회귀 인과 관계)/실험 과학/인과적 AI
  • 역, 반응성, 반응, 반사, 소급, 반동, 반응, 소급 또는 역 인과성, 역 또는 복귀 동작, 반대 동작 또는 자극으로 인한 역효과, 반사 동작, 역 확률적 인과성, P(C|E) > P (C|not-E), 사회, 생물학, 화학, 생리, 심리학 및 물리적 과정/실험 과학
  • 상호 작용, 실제 인과 관계, 상호 작용하는 원인,자가 발생 원인,  causa가 수이,  인과 적 상호 작용 : 사실, 상호, 원형, 강화, 순환, 진화 된 인공 두뇌, 피드백, 비선형 깊은 수준의 인과 관계, 보편적 인 인과 네트워크, 생물학적, 사회에 내장으로, 화학적, 생리적, 심리적, 물리적 과정/실제 과학/실제 AI/실제 세계/심층 철학, 과학적 발견 및 기술 혁신의 수준

6계층 인과관계 계층은 현실, 인과관계 및 정신, 과학 및 기술, 인간 지능 및 비인간 지능(MI 또는 AI)의 사다리를 정의합니다.

CausalWorld[인과관계의 수준]은 힘, 힘과 상호작용, 행위자와 실체, 상태와 조건과 상황, 사건, 행동과 변화, 과정과 관계와 같은 모든 실제 세계 구성의 기초입니다. 인과 관계 및 인과 관계, 인과 관계 모델, 인과 관계 시스템, 인과 프로세스, 인과 메커니즘, 인과 관계 패턴, 인과 데이터 또는 정보, 인과 코드, 프로그램, 알고리즘, 인과 관계 분석, 인과 추론, 인과 추론 또는 인과 그래프(경로 다이어그램, 인과 베이지안 네트워크 또는 DAG). 

 데이터 과학 및 데이터 생성 프로세스, 의료 및 사회 연구, 공공 정책 평가, 통계, 계량 경제학, 역학, 유전학 및 관련 분야에서 매우 중요한 인과 관계 그래프 분석  완전히 검토합니다  .

CausalWorld 모델은 인과 관계의 사다리로서 Pearl의 통계적 선형 인과 메타모델을 다룹니다. 연관(보기/관찰)은 상관관계로 표현되는 입력 데이터의 규칙성 또는 패턴 감지를 수반합니다. 개입(실행), 인과 관계로 표현되는 의도적인 행동의 효과를 예측합니다. 반대 사실은 특정 행동이 특정 효과를 갖는 이유와 그러한 행동이 없을 때 일어나는 일을 설명하는 세계의 (일부) 이론을 구성하는 것을 포함합니다.

"인과 관계의 사다리"  [ Book of Why: New Science of Cause and Effect ] 에 의존하는 모든 인과 추론 통계 또는 AI 모델 은 6개의 실제 비선형 인과성의 핵심 수준을 놓치기 때문에 여전히 근본적으로 결함이 있다는 점에 유의해야 합니다  . 계층 인과 계층.

인과 관계를 나타내는 수학적 모델로 형식화된 인과 관계 네트워크, 시스템 또는 프로세스의 인과 메커니즘을 설명하는 개념적 모델링으로 인과 모델(또는 구조적 인과 모델)을 포함합니다. 여기서 C는 [외인성] 인과 변수 값이 모델 외부의 요인에 의해 결정됩니다. E는 값이 모델 내의 요인에 의해 결정되는 [내인성] 인과 변수 집합입니다. M은 C와 E의 다른 변수 값의 함수로 각 내생 변수의 값을 표현하는 일련의 구조 방정식입니다.

인과 모델을 사용하면 무작위 대조 시험, RCT(예: 임상 시험)와 같은 중재 연구를 통해 치료 결과 과정의 효과를 테스트할 때 편향을 줄일 수 있습니다.

또한, 인과적 상황 인식(CSA), 이해, 의미 만들기 또는 평가, "시간 또는 공간에 대한 환경 요소 및 이벤트의 인식, 의미에 대한 이해 및 미래 예측과 같은 특수 사항을 다룹니다. 상태".

CSA는 인명 및 재산 보호, 법 집행, 항공, 항공 교통 관제, 선박 항해, 의료, 비상 대응, 군사 지휘 및 통제 작전과 같은 광범위한 상황에서 인과 관계 의사 결정을 위한 중요한 기반입니다. , 자기 방어, 해양 석유, 원자력 발전소 관리, 도시 개발 및 기타 실제 상황.

전체적으로 상호작용적 인과관계와 가역적 인과관계가 있는 CausalWorld의 AA 사다리는 과학, 수학, 공학, 기술, 철학 및 예술을 포함한 인간 정신의 모든 산물을 다룹니다.

  • 과학, 과학적 방법, 과학적 모델링: 인과 과학, 실제 과학
  • 수학: 실수, 인과 수학
  • 확률 이론 및 통계: 인과 통계, 실제 통계, Cstatistics
  • Cybernetics 2.0은 자연, 사회 또는 정보 시스템의 모든 시스템에서 순환 인과 및 피드백 메커니즘의 연구에 참여하고 있습니다.
  • 컴퓨터 과학, AI, ML 및 DL, 인과/설명 가능한 AI, 실제 AI(RAI)

실제 AI 기초: 과학 기술의 인과 관계 세계

"나중의 사건을 이론적으로 더 이른 사건에 의해 예측할 수 있는 인과법칙은 종종 선험적  사고 의  필연성 , 과학이 없이는 과학이 가능하지 않은 범주로 여겨져 왔습니다  ." (러셀, 외부 세계 p.179).

[실제] 인과성은 과학과 비과학 및 사이비 과학을 분리하는 핵심 개념으로 "과학적이면서 사실적이라고 주장하지만 인과적 방법과 양립할 수 없는 진술, 신념 또는 관행으로 구성"됩니다. 반증 가능성이나 검증 가능성을 대체하는 인과주의 원칙 또는 의미의 인과적 기준은 인과적으로 검증 가능한 진술만이 인지적으로 의미가 있거나 그렇지 않으면 비과학의 항목이라고 주장합니다.

과학과 사이비과학의 경계는 철학적, 정치적, 경제적, 과학적, 기술적 함의를 갖는다. 점성술, 연금술, 대체 의학, 오컬트 신념 및 창조 과학과 마찬가지로 현대의 사이비 과학적 신념에서 실제 사실 및 인과 이론을 구별하는 것은 실제 과학 교육 및 문해력의 일부입니다.

실제 과학은 근본적으로 인과 관계, 세계 현상의 인과 관계를 다룹니다.

과학은 세계에서 현상의 관계와 순서의 인과 관계 규칙성을 연구합니다.

실제 인과 관계에서 나온 현존하는 정의는 더 이상 유효하지 않고 구식이며 사이비 과학으로 반증되기 쉽습니다.

"과학("지식"을 의미하는 라틴어 scientia에서 유래)은 우주에 대한 검증 가능한 설명과 예측의 형태로 지식을 구축하고 조직하는 체계적인 사업입니다."

"과학, 물리적 세계 및 그 현상과 관련되고 편견 없는 관찰 및 체계적인 실험을 수반하는 모든 지식 시스템. 일반적으로 과학은 일반 진리 또는 기본 법칙의 작동을 다루는 지식 추구를 포함합니다."

"과학은 관찰과 실험을 통해 물리 및 자연 세계의 구조와 행동에 대한 체계적인 연구를 포함하는 지적이고 실용적인 활동입니다."

[리얼] 사이언스는 세계와 세계의 현상에 대한 인과법칙, 설명과 예측의 형태로 세계의 데이터, 정보 또는 지식을 구축하고 조직화하는 체계적인 기업입니다.

실제 과학은 자연 과학(예: 생물학, 화학 및 물리학)으로 구분되며 자연의 인과적 상호 작용과 패턴을 연구합니다. 인지 과학(언어학, 신경 과학, 인공 지능, 철학, 인류학 및 심리학); 개인과 사회의 인과적 상호 작용을 연구하는 사회 과학(예: 경제학, 정치학 및 사회학); 기술 과학(응용 과학, 공학 및 의학); 형식 과학(예: 논리, 수학 및 이론적인 컴퓨터 과학). 과학적 연구는 자연 현상을 재현 가능한 방식으로 인과적으로 설명하려는 인과적 과학적 방법을 사용하는 것을 포함합니다.

관찰 및 실험, 시뮬레이션 및 모델링은 모두 실제 과학에서 동적 인과 관계를 설정하는 데 중요합니다(상관 오류를 피하기 위해).

공식적으로 인간-AI ​​세계는 사실상 무제한의 노드/단위(개체 변수, 데이터, 입자, 원자, 뉴런, 마음, 조직 등)와 사실상 무제한의 상호 관계(실제 데이터 패턴)의 글로벌 순환 대칭 그래프/네트워크로 모델링됩니다. ) 그 중.

UGM(Undirected Graphical Models), Markov 및 Bayesian 네트워크 모델, 컴퓨터 네트워크, 소셜 네트워크, 생물학적 신경망 또는 인공 신경망(ANN)으로 근사할 수 있습니다.

베이지안 네트워크(베이즈 네트워크, 신념 네트워크 또는 의사결정 네트워크, 영향력 다이어그램(ID)(관련 다이어그램, 의사결정 다이어그램 또는 의사결정 네트워크), 신경망(자연 및 인공), 경로 분석(통계), 구조 방정식 모델링(SEM), 수학적 모델, 컴퓨터 알고리즘, 통계 방법, 회귀 분석, 인과 추론, 인과 관계 네트워크, 지식 그래프, 의미 네트워크, 과학적 지식, 방법 및 모델링 및 기술, 모두 인과 관계, 네트워크, 메커니즘, 법률 및 규칙. 

예를 들어,  의 NN 토폴로지 에 의해 컴파일,  Fjodor 반 Veen은  에서  아시모프 연구소는 실제 물질을 받고되지만 인과의 NN 등, 아래와 같이 : 

컴퓨팅 네트워크의 인과 구조 학습 및 인과 추론은 Real AI/ML/DL 플랫폼의 주제입니다.

True and Real AI는 인과 관계 AI/ML/DL을 수용하여 통계 데이터 패턴 대신 인과 관계 정보로 작동하여 먼저 [통계] 데이터에서 인과 관계에 대한 인과 추론을 수행합니다.

현재 최첨단 상관관계 기반 머신 러닝과 딥 러닝은 인간을 위한 AI의 진정한 잠재력을 발휘하지 못하는 실제 동적 환경에서 심각한 한계를 가지고 있습니다.

실제 AI는 객관적이고 주관적이고 혼합된 현실과 그 복잡한 인과 관계를 이해하는 지능형 기계의 새로운 범주입니다.

실제 AI 대 실제가 아닌 AI

AI, 대중 매체 및 대중 문화에 의해 많이 홍보되는 AI, 그 본질 및 진정한 정의에 대해 인간에 반대되는 강력하거나 일반적이며 자율적이고 의식적인 인간형 AI(HAI)에 대한 잘못된 오해가 있습니다.

두 번의 개발 기간(1940년과 1960년, 1980년과 1990년)에 이어 몇 차례의 추운 "겨울"을 겪으면서 HAI는 2010년 통계 학습 알고리즘, 방대한 양의 데이터, 학습 알고리즘의 계산을 가속화합니다.

융합 과학, 방법, 이론 및 기술(철학, 의미론, 자연어, 과학, 수학, 논리, 통계, 확률, 계산 신경생물학, 컴퓨터 과학 및 정보 공학 포함) '인간의 인지 능력을 기계로 모방하는 것'.

다음은 IBM, SAS, 브리태니커, Investopedia 및 EC의 주류 인간과 유사한 의인화 AI 정의의 일부 샘플이며, 모두 좁고 약하며, 강력하고 일반 또는 초인적 AI의 상반된 구분이 있는 선구적인 정의와 비교됩니다.

AI는 컴퓨터와 기계를 활용하여 인간 마음(IBM)의 문제 해결 및 의사 결정 능력을 모방합니다.

AI는 기계가 경험을 통해 학습하고, 새로운 입력에 적응하고, 인간과 유사한 작업(SAS)을 수행하는 것을 가능하게 합니다.

AI라는 용어는 추론, 의미 발견, 일반화 또는 과거 경험에서 배우는 능력과 같은 인간의 지적 과정이 부여된 시스템을 개발하는 프로젝트에 자주 적용됩니다(브리태니커).

AI는 인간처럼 생각하고 행동을 모방하도록 프로그래밍된 기계의 인간 지능 시뮬레이션을 의미합니다(Investopedia).

 인공 지능(AI)  은 특정 목표를 달성하기 위해 환경을 분석하고 어느 정도 자율적으로 조치를 취함으로써 지능적인 행동을 나타내는 시스템을 말합니다. AI 기반 시스템은 순수 소프트웨어 기반으로 가상 세계(예: 음성 비서, 이미지 분석 소프트웨어, 검색 엔진, 음성 및 얼굴 인식 시스템)에서 작동하거나 AI는 하드웨어 장치(예: 고급 로봇, 자율주행차)에 내장될 수 있습니다. , 드론 또는 사물 인터넷 응용 프로그램). (EC)

John McCarthy는 2004년 논문 에서 가장 공개된 정의를 제시했습니다.  인공 지능이란 무엇입니까?

"지능형 기계, 특히 지능형 컴퓨터 프로그램을 만드는 과학 및 공학입니다. 인간의 지능을 이해하기 위해 컴퓨터를 사용하는 유사한 작업과 관련이 있지만 AI가 생물학적으로 관찰 가능한 방법에 국한될 필요는 없습니다."

" 생물학적 지능 시스템(인간 포함)은 우리 세계에서 성공적으로 작동하기 위해 상호 작용, 진화 및 학습을 통해 정교한 능력을 개발했지만 이러한 현상에 대한 우리의 이해는 여전히 제한적입니다. 지능적이고 자율적인 학습 시스템의 합성은 여전히 ​​주요 과학 도전 ". 

AI는 인간의 지능이나 생물학적 지능적 행동을 시뮬레이션하는 것이 전부가 아닙니다. 지능에 대한 확고한 정의는 그것을 인간 지능에만 관련시키는 데 의존하지 않습니다.

"AI에서 가장 많이 하는 일은 사람이나 동물을 연구하는 것보다 세상이 지능에 제시하는 문제를 연구하는 것입니다." 목표는 물리적이든 디지털이든 가상이든 복잡하고 변화하는 모든 환경에서 자율적으로 작동하고 적응하는 강력한 지능형 시스템을 만드는 것입니다.

따라서 AI를 지각과 의식이 있는 편협, 일반 또는 초인간으로 분류하는 것은 모호하고 혼란스럽고 오해의 소지가 있는 정의에서 비롯됩니다.

오늘날의 AI는 그 형태, 종류, 종류에 관계없이 너무 BRAIN 지향적이고 의인화되고 무익하고 위험한 구조입니다.

  • 좁은, 일반 또는 슈퍼 AI;
  • 임베디드 또는 신뢰할 수 있는 AI
  • 클라우드 AI 또는 에지 AI
  • 인지 컴퓨팅 또는 AI 칩
  • 머신 러닝, 딥 러닝 또는 인공 신경망
  • AI 플랫폼, 도구, 서비스, 애플리케이션
  • AI 산업, FBSI, 의료, 통신, 운송, 교육, 정부.

그들은 모두 무심코 인간 지능, 인지 또는 행동의 일부를 모방하는 데 아무 생각 없이 참여하고 정신, 지성 또는 이해력이 전혀 없음을 보여줍니다.

AI 연구  역사 대부분은   가짜 AAI 연구의 역사처럼 보입니다.

AI 시스템의 모든 프로그래밍 가능한 기능, 인식, 인지, 계획, 학습, 추론, 문제 해결, 이해, 지성, 의지 및 의사 결정 중에서 Narrow/Weak AI는 좁은 제약 조건과 제한 조건에서 작동합니다. Narrow AI는 인간의 지능을 모방하거나 복제하지 않고 좁은 범위의 매개변수와 컨텍스트를 기반으로 특정 인간 행동만 모방, 위조 또는 시뮬레이션합니다.

얼굴 인식, 음성 인식/음성 비서, 자동차 운전, 인터넷 검색 등 단 하나의 작업만 수행하는 것입니다.

무생물, 동물, 자연 현상 및 초자연적 실체와 달리 인간과 유사한 감정, 정신 상태 및 행동 특성을 컴퓨팅 기계에 부여하는 AAI(의인화 AI)는 전체 기업에서 개념적으로, 도덕적, 법적으로 가장 위험한 부분입니다. .

모든 AAI 응용 프로그램의 경우 내장된 윤리 원칙, 신뢰 및 투명성을 기반으로 AI 시스템을 구축하는 것을 의미합니다. EC에서 제안한  인공 지능, 로봇 공학 및 관련 기술의 윤리적 측면에 대한 모든 종류의  프레임워크, 인공 지능의 윤리에 관한 EU 지침: 컨텍스트 및 구현 .

비실제 AAI의 다른 잘 알려진 위험은 다음과 같습니다.

  • AI, 로봇 공학 및 자동화로 인한 대규모 실직.
  • 개인 정보 침해, 소수의 대형 기술 AI 회사는 개인화된 정보로 사람들의 관심, 의견, 감정, 결정 및 행동을 조작하여 매일 수십억 명의 마음을 제어합니다.
  • '딥페이크'
  • 잘못된 데이터로 인한 알고리즘 편향.
  • 사회 경제적 불평등.
  • 무기 자동화, AI 기반 무기, 글로벌 AI 군비 경쟁 .
  • AI의 악의적인 사용, 위협하는 디지털 보안(예: 인간 또는 초인간 수준의 성능으로 피해자를 해킹하거나 사회 공학적으로 조작하는 범죄자 훈련 기계를 통해), 물리적 보안(예: 소비자 드론을 무기로 하는 비국가 행위자), 정치적 보안(예: 개인 정보 제거를 통한) 감시, 프로파일링 및 억압 또는 자동화되고 표적화된 허위 정보 캠페인을 통해), 사회 보장(사무실, 학교 및 기타 장소에서 안면 인식 기술의 오용).
  • Human brains hacking and replacement.
  • Destructive superintelligence — aka artificial general human-like intelligence

“Businesses investing in the current form of machine learning (ML), e.g. AutoML, have just been paying to automate a process that fits curves to data without an understanding of the real world. They are effectively driving forward by looking in the rear-view mirror,” says causaLens CEO Darko Matovski.

Examples of narrow and weak AI:

  • Rankbrain by Google / Google Search.
  • Siri by Apple, Alexa by Amazon, Cortana by Microsoft and other virtual assistants.
  • IBM's Watson.
  • Image / facial recognition software.
  • Disease mapping and prediction tools.
  • Manufacturing and drone robots.
  • Email spam filters / social media monitoring tools for dangerous content
  • Entertainment or marketing content recommendations based on watch/listen/purchase behaviour
  • Self-driving cars, etc.

A true goal of Machine Intelligence and Learning is not to equal or exceed human intelligence, but to become the last and the best of “general purpose technologies” (GPTs).

GPTs are technologies that can affect an entire economy at a global level, revolutionizing societies through their impact on pre-existing economic and social structures.

GPTs' examples: the steam engine, railroad, interchangeable parts and mass production, electricity, electronics, material handling, mechanization, nuclear energy control theory (automation), the automobile, the computer, the Internet, medicine, space industries, robotics, software automation and artificial intelligence.

The four most important GPTs of the last two centuries were the steam engine, electric power, information technology (IT), and general artificial intelligence (gAI).

And the time between invention and implementation has been shrinking, cutting in half with each GPT wave. The time between invention and widespread use for the steam engine was about 80 years; 40 years for electricity, and about 20 years for IT

Source: Comin and Mestieri (2017).

Now the implementation lag for the MIL-GPT technologies will be about 5 years.

“My assessment about why A.I. is overlooked by very smart people is that very smart people do not think a computer can ever be as smart as they are. And this is hubris and obviously false. Working with A.I. at Tesla lets me say with confidence “that we’re headed toward a situation where A.I. is vastly smarter than humans and I think that time frame is less than five years from now. But that doesn’t mean that everything goes to hell in five years. It just means that things get unstable or weird.” Elon Musk

It is all fast emerging as a real and true or general AI, globally intelligent systems integrating all sorts of automated ML/DL/ANN models, algorithms, techniques and cloud platforms.

General AI with Automation and Robotics emerges as the genuine General Purpose Technology for all the previous ones: the power engine, railroad, electricity, electronics, mechanization, control theory (automation), the automobile, the computer, the Internet, nanotechnology, biotechnology, and machine learning.

HOW TO CREATE AN ARTIFICIAL INTELLIGENCE GENERAL TECHNOLOGY PLATFORM

Human and machine powers are most productively harnessed by designing hybrid human- machine superintelligence (HMSI) cyber-physical networks in which each party complements each other’s strengths and counterbalances each other’s weaknesses.

HMSI [RealAI] is all about 5 interrelated universes, as the key factors of global intelligent cyberspace:

  • reality/world/universe/nature/environment/spacetime, as the totality of all entities and relationships;
  • intelligence/intellect/mind/reasoning/understanding, as human minds and AI/ML models;
  • data/information/knowledge universe, as the world wide web; data points, data sets, big data, global data, world’s data; digital data, data types, structures, patterns and relationships; information space, information entities, common and scientific and technological knowledge;
  • software universe, as the web applications, application software and system software, source or machine codes, as AI/ML codes, programs, languages, libraries;
  • hardware universe, as the Internet, the IoT, CPUs, GPUs, AI/ML chips, digital platforms, supercomputers, quantum computers, cyber-physical networks, intelligent machinery and humans

How it is all represented, mapped, coded and processed in cyberspace/digital reality by computing machinery of any complexity, from smartphones to the internet of everything and beyond.

AI is the science and engineering of reality-mentality-virtuality [continuum] cyberspace, its nature, intelligent information entities, models, theories, algorithms, codes, architectures and applications.

Its subject is to develop the AI Cyberspace of physical, mental and digital worlds, the totality of any environments, physical, mental, digital or virtual, and application domains.

AI as a symbiotic hybrid human-machine superintelligence is to overrule the extant statistical narrow AI with its branches, such as machine learning, deep learning, machine vision, NLP, cognitive computing, etc.

FROM UNICODE TO UNIDATACODE: HOW TO INTEGRATE AI INTO ICT

Real AI of deep causal learning and understanding has the potential to enhance the accessibility of information & communications technology (ICT). 

It maybe the system software operating systems like Apple's iOS, Google's Android, Microsoft's Windows Phone, BlackBerry's BlackBerry 10, Samsung's/Linux Foundation's Tizen and Jolla's Sailfish OS; macOS, GNU/Linux, computational science software, game engines, industrial automation, and software as service applications.

It may be web browsers such as Internet Explorer, Chrome OS and Firefox OS for smartphones, tablet computers and smart TVs, cloud-based software or specialized classes of operating systems, such as embedded and real-time systems.

A Hierarchy of Abstraction Levels: A Layer on a Layer

Here is an heuristic rule, each complex problem in science and technology is decided by adding up a new abstraction level.

ICT with computer science, as computing, data storage and digital communication, deep neural networks, etc., is not any exclusion. It relates to the Internet stack, from computers to content, the OSI model and the Internet suite, with Domain Name System.

Internet Protocol Suite

  • Application layer
  • Transport layer
  • Internet layer
  • Link layer

OSI Model

1.  Physical layer

2.  Data link layer

3.  Network layer

4.  Transport layer

5.  Session layer

6.  Presentation layer

7.  Application layer

This is how data web or Semantic Web, an extension of the World Wide Web, was tried and failed by the World Wide Web Consortium (W3C) to make Internet data machine-readable.

The Semantic Web Stack, also known as Semantic Web Cake or Semantic Web Layer Cake, illustrates the architecture of the Semantic Web as the hierarchy of languages, where each layer exploits and uses capabilities of the layers below. The Semantic Web aims at converting the current web, dominated by unstructured and semi-structured documents into a "web of data".

To enable the encoding of semantics with the data, web data representation/ formatting technologies such as Resource Description Framework (RDF) and Web Ontology Language (OWL) are used.

W3C tried but failed to innovate a sort of universal dataset code layer over the universal character set code layer, or UNICODE.

Still, the whole idea to apply ontology [describing concepts, relationships between entities, and categories of things] was intuitively right.

Unicode and Unidatacode

Unicode is an information technology (IT) standard for the consistent encoding, representation, and handling of text expressed in most of the world's writing systems. The standard is maintained by the Unicode Consortium, and as of March 2020, there is a total of 143,859 characters, with Unicode 13.0 (these characters consist of 143,696 graphic characters and 163 format characters) covering 154 modern and historic scripts, as well as multiple symbol sets and emoji. The character repertoire of the Unicode Standard is synchronized with ISO/IEC 10646, and both are code-for-code identical.

The Universal Coded Character Set (UCS) is a standard set of characters defined by the International Standard ISO/IEC 10646, Information technology — Universal Coded Character Set (UCS) (plus amendments to that standard), which is the basis of many character encodings, improving as characters from previously unrepresented writing systems are added.

To integrate AI into computers and system software means to create a Unicode abstraction level, the Universal Coded Data Set (UCDS), as AI Unidatacode or EIS UCDS.

The Universal Coded Data Set (UCDS): AI Unidatacode or EIS UCDS

The UCDS is a universal set of data entities, which is the basis of all intelligent/meaningful data encodings, as machine data types, improving as data units, sets, types and points are added.

Data universe represents the state of the world, environment or domain.

Data refers to the fact that some dynamic state of the world is represented or coded in some form suitable for usage or processing.

Data are a set of values of entity variables, as places, persons or objects.

A data type is formally defined as a class of data with its representation and a set of operators manipulating these representations, or a set of values which a variable can possess and a set of functions that one can apply to these values.

Common data types include:

  • Integer
  • Floating-point number
  • Character/Unicode
  • String
  • Boolean

Almost all programming languages explicitly include the notion of data type, while using different terminology. The data type defines the syntactic operations that can be done on the data, the semantic meaning of the data, and the way values of that type can be stored, providing a set of values from which an expression (i.e. variable, function, etc.) may take its values.

Deep Intelligence and Learning: AI + Unidatacode + Machine DL

Deep Intelligence and Learning = AI [real-world competency and common sense knowledge and reasoning, domain models, causes, principles, rules and laws, data universe models and types] + UniDataCode [Unicode] + Machine DL [ a hierarchical level of artificial neural networks, neurons, synapses, weights, biases, and functions, feature/representation learning, training data sets, unstructured and unlabeled, algorithms and models, model-driven reinforcement learning]

Provided the rules of chess, AlphaZero learned to play the board games in 4 hours, or MuZero -building a model from first principles.

For a dynamic and unpredictable world, you need the AI-Environment interaction model of real intelligence, where AI acts upon the environment (virtual or physical; digital or natural) to change it. AI perceives these reactions to choose a rational course of action.

Every deep AI system must not only have some goals, specific or general-purpose, but efficiently interact with the world to be the Deep Intelligence and Learning.

What is Wrong with Today's AI Hardware, Its Chips and Platforms?

All the confusion comes from anthropomorphic Artificial Intelligence, AAI, the simulation of the human brain using artificial neural networks, as if they substitute for the biological neural networks in our brains. A neural network is made up of a bunch of neural nodes (functional units) which work together and can be called upon to execute a model.

Thus, the main purpose in 2021 is to provide a conceptual framework to define Machine Intelligence and Learning. And the first step to create MI is to understand its nature or concept against main research questions (why, what, who, when, where, how).

So, describe AI to people as an AAI or augmented intelligence or advanced statistics, not artificial intelligence or machine intelligence.

Now, are the levels of AAI applications, tools, and platforms?

Let’s focus only on "AAI chips", forming the brain of an AAI System, replacing CPUs and GPUs, and where most progress has to be achieved.

While typically GPUs are better than CPUs when it comes to AI processing, they usually fail, being specialized in computer graphics and image processing, not neural networks.

The AAI industry needs specialised processors to enable efficient processing of AAI applications, modelling and inference. As a result, chip designers are now working to create specialized processing units.

These come under many names, such as NPU, TPU, DPU, SPU etc., but a catchall term can be the AAI processing unit (AAI PU), forming the brain of an AAI System on a chip (SoC).

It is also added with 1. the neural processing unit or the matrix multiplication engine where the core operations of an AAI SoC are carried out; 2. Controller processors, based on RISC-V, ARM, or custom-logic instruction set architectures (ISA) to control and communicate with all the other blocks and the external processor; 3. SRAM; 4. I/O; 5. the interconnect fabric between the processors (AAI PU, controllers) and all the other modules on the SoC.

The AAI PU was created to execute ML algorithms, typically by operating on predictive models such as artificial neural networks. They are usually classified as either training or inference generally performed independently.

AAI PUs are generally required for the following:

  • Accelerate the computation of ML tasks by several folds (nearly 10K times) as compared to GPUs
  • Consume low power and improve resource utilization for ML tasks as compared to GPUs and CPUs

Unlike CPUs and GPUs, the design of single-action AAI SoC is far from mature.

Specialized AI chips deal with specialized ANNs, and are designed to do two things with them: task-designed training and inference, only for facial recognition, gesture recognition, natural language processing, image searching, spam filtering, etc.

In all, there are {Cloud, Edge, Inference, Training} chips for AAI models of specific tasks. Examples of Cloud + Training chips include NVIDIA’s DGX-2 system, which totals 2 petaFLOPS of processing power, made up of 16 NVIDIA V100 Tensor Core GPUs, or Intel Habana’s Gaudi chip or Facebook photos or Google translate.

Sample chips here include Qualcomm’s Cloud AI 100, which are large chips used for AAI in massive cloud data centres. Another example is Alibaba’s Huanguang 800, or Graphcore’s Colossus MK2 GC200 IPU.

Now (Cloud + Inference) chips were used to train Facebook’s photos or Google Translate, to process the data you input using the models these companies created. Other examples include AAI chatbots or most AAI-powered services run by large technology companies. Here is also Qualcomm’s Cloud AI 100, which are large chips used for AAI in massive cloud data centres, Alibaba’s Huanguang 800, or Graphcore’s Colossus MK2 GC200 IPU.

(Edge + Inference) on-device chips examples include Kneron’s own chips, including the KL520 and recently launched KL720 chip, which are lower-power, cost-efficient chips designed for on-device use; Intel Movidius and Google’s Coral TPU.

All of these different types of chips, training or inference, and their different implementations, models, and use cases are expected to develop the AAI of Things (AAIoT) future.

How to Make a True Artificial Intelligence Platform

In order to create a platform neutral software operating with world’s data/information/content which could run/display properly on any type of computer, cell phone, device or technology platform, the following are required:

  • Operating Systems.
  • Computing/Hardware/Cloud Platforms.
  • Database Platforms.
  • Storage Platforms.
  • Application Platforms.
  • Mobile Platforms.
  • Web Platforms.
  • Content Management Systems.

The AI programming language should act as both the general programming language and computing platform. Its applications could be launched on any operating system and hardware, from mobile-based operating systems, such as Linux or Android, to hardware-based platforms, from game consoles to supercomputers or quantum machines.

Cyberspace as a New Intelligent Reality

According to Britannica, Cyberspace is ... “virtual” world created by links between computers, Internet-enabled devices, servers, routers, and other components of the Internet’s infrastructure. The term cyberspace was first used by William Gibson in 1982 in his book Neuromancer, as the creation of a computer network in a world filled with artificially intelligent beings.

The infrastructure of cyberspace is now fundamental to the functioning of national and international security systems, trade networks, emergency services, basic communications, and other public and private activities. 

In all, there are many various definitions, as listed below:

  • Cyberspace as a digital reality
  • Cyberspace as a immersive virtual reality
  • Cyberspace as the flow of digital data through the network of interconnected computers
  • Cyberspace as the Internet as a whole and the WWW
  • Cyberspace as the environment of the Internet. .. The virtual space created by interconnected computers and computer networks on the Internet
  • Cyberspace as the electronic medium of computer networks for online communication
  • Cyberspace as a world of data/information/knowledge through the Internet
  • Cyberspace as a location for the free sharing of data, knowledge, ideas, culture, and community

Intelligent Cyberspace = Real AI + Cyberspace

CyberAI is all about 5 interrelated universes, as the key factors of global intelligent cyberspace:

  • Reality/world/universe/nature/environment/spacetime, as the totality of all entities and relationships;
  • Intelligence/intellect/mind/reasoning/understanding, as human minds and AI/ML models;
  • Data/information/knowledge universe, as the world wide web; data points, data sets, big data, global data, world’s data; digital data, data types, structures, patterns and relationships; information space, information entities, common and scientific and technological knowledge;
  • Software universe, as the web applications, application software and system software, source or machine codes, as AI/ML codes, programs, languages, libraries;
  • Hardware universe, as the Internet, the IoT, CPUs, GPUs, AI/ML chips, digital platforms, supercomputers, quantum computers, cyber-physical networks, intelligent machinery and humans

How it is all represented, mapped, coded and processed in cyberspace by computing machinery of any complexity, from smartphones to the internet of everything and beyond.

CyberAI is the science and engineering of reality-mentality-virtuality [continuum] cyberspace, its nature, intelligent information entities, models, theories, algorithms, codes, architectures, platforms, networks, and applications.

Its subject is to develop the AI Cyberspace of physical, mental and digital worlds, the totality of any environments, physical, mental, digital or virtual, and application domains.

CAI as a symbiotic hybrid human-machine superintelligence is to overrule the extant statistical narrow AI with its branches, such as machine learning, deep learning, machine vision, NLP, cognitive computing, etc.

Real AI vs. Fake AI: Beneficial AI vs Adversarial AI

A major concern with today's AI is the so-called Adversarial AI [AAI], the malicious development and use of advanced digital technology and systems that have the ability to learn from past experiences, to reason or discover meaning from complex data.

Such AAI machine learning systems are in need of high quality datasets to train their algorithms, and so liable to data poisoning attacks, whereby malicious users inject false training data corrupting the learned model..

AAI technology enables armies of killer robots and AI-enhanced cyber weapons.

Ultimately, the real danger of AAI lies in how it will enable cyber attackers.

Major critical national infrastructures — security services, telecommunications, electric grids, dams, wastewater, and critical manufacturing — are vulnerable to physical damage from AAI-enhanced cyber attacks.

How AI Machine Learning Techniques Are Leading to Skynet

AI-enhanced cyber attacks against nuclear systems would be almost impossible to detect and authenticate, let alone attribute, within the short timeframe for initiating a nuclear strike. According to open sources, operators at the North American Aerospace Defense Command have less than three minutes to assess and confirm initial indications from early-warning systems of an incoming attack. This compressed decision-making timeframe could put political leaders under intense pressure to make a decision to escalate during a crisis, with incomplete (and possibly false) information about a situation.

Ironically, new technologies designed to enhance information, such as 5G networks, machine learning, big-data analytics, and quantum computing, can also undermine its clear and reliable flow and communication, which is critical for effective deterrence.

Advances in AI could also exacerbate this cyber security challenge by enabling improvements to cyber offense. 

AI applications designed to enhance cyber security for nuclear forces could simultaneously make cyber-dependent nuclear weapon systems (e.g., communications, data processing, or early-warning sensors) more vulnerable to cyber attacks.

AI machine learning techniques might also exacerbate the escalation risks by manipulating the digital information landscape, where decisions about the use of nuclear weapons are made.

Building Rational Learning Human-AI Systems: Intelligent Human=Machine Robotics

 Robotics can be defined as 5Es, embrained, embodied, embedded, enacted and extended, AI, or “Real AI in action in the physical world”. Such a real robot is a cyber-physical machine that has to cope with the dynamics, the uncertainties and the complexity of the physical and virtual world.

Knowledge, learning, perception, reasoning, decision, action, as well as interaction capabilities with the environment and other intelligent systems must be integrated in the control/governance architecture of the intelligent robotic system. Some examples of robots include robotic manipulators, autonomous vehicles (e.g. cars, drones, flying taxis), humanoid robots, military drones, robotic process automation, etc.

INDEPENDENT HIGH-LEVEL EXPERT GROUP ON ARTIFICIAL INTELLIGENCE SET UP BY THE EUROPEAN COMMISSION has proposes to use the following updated definition of AI to build rational deep learning systems: “Artificial intelligence (AI) systems are software (and possibly also hardware) systems designed by humans that, given a complex goal, act in the physical or digital dimension by perceiving their environment through data acquisition, interpreting the collected structured or unstructured data, reasoning on the knowledge, or processing the information, derived from this data and deciding the best action(s) to take to achieve the given goal. AI systems can either use symbolic rules or learn a numeric model, and they can also adapt their behaviour by analysing how the environment is affected by their previous actions.

As a scientific discipline, AI includes several approaches and techniques, such as machine learning (of which deep learning and reinforcement learning are specific examples), machine reasoning (which includes planning, scheduling, knowledge representation and reasoning, search, and optimization), and robotics (which includes control, perception, sensors and actuators, as well as the integration of all other techniques into cyber-physical systems).”

The human-machine intelligence and learning systems act/operate through the perception-learning-action-perception causal cycle, as a continuous flow of information and action among the brain, the body, the robot and the world, all by sensing, thinking, predicting, deciding, acting, and adjusting or innovating.

Any powerful brain makes sense of the world around it by creating and testing hypotheses about the way the world works.

When presented with new situations, the intelligent agent makes predictions based on past experiences, takes action based on those hypotheses, perceives the results and re-adjusts its hypotheses by reinforcing or refuting. It is all under the control of intelligence, its world’s models, schemas and algorithms.

The perception-learning-action-perception cycle as a feedback loop helping us build an understanding of how the world works: the circular cybernetic flow of cognitive information that links the organism to its environment

There are the whole institutions, such as Max Plank Institution for Intelligent Systems, whose goal is “to understand the principles of Perception, Action and Learning in autonomous systems that successfully interact with complex environments and to use this understanding to design future artificially intelligent systems. The Institute studies these principles in biological, computational, hybrid, and material systems ranging from nano to macro scales''.

In all, the Human-AI systems are aimed to investigate and understand the organizing principles of intelligent systems and the underlying perception-action-learning causal loops.

Who will be the dominant leader in AI in 10 years?

The A-list looks as in:

  • AI4EE, or AI itself (Global Human-AI Platform)
  • Big Tech (the Tech Giants or the Big Nine, the largest and most dominant companies in the information technology industry, G-MAFIA and BAT-Triada)
  • China (China announced in 2017 that it wants to lead the world in AI by 2030, strategically allocating funds guided by a national strategy for AI)
  • USA (The United States' substantial investments in Narrow AI is aimed to extend its role as a global superpower)
  • Russia (“Whoever becomes the leader in AI [or artificial intelligence] will become the ruler of the world,” Vladimir Putin)

AI dominance can take on 3 forms, as to WEF.

"First, programmed AI that humans design in detail with a particular function in mind, like (most) manufacturing robots, virtual travel agents and Excel sheet functions. Second, statistical AI that learns to design itself given a particular predefined function or goal. Like humans, these systems are not designed in detail and also like humans, they can make decisions but they do not necessarily have the capability to explain why they made those decisions.

The third manifestation is AI-for-itself: a system that can act autonomously, responsibly, in a trustworthy style, and may very well be conscious, or not. We don’t know, because such a system does not yet exist".

In the case of AI itself, it is a real and true AI, designed, developed, deployed and distributed as a global AI Platform.

As to the possible corporate leadership, it is a small chance that any of today's top AI companies could be a leader due to the limiting business strategy of Narrow and Weak AI/ML/DL, Top Performing Artificial Intelligence Companies of 2021.

Now, many countries have been developing their national Narrow AI strategies, including China, the US, the EU, and Russia.


Some big powers, such as the US, China or Russia, trick themselves to believe in reaching a leadership in the global narrow AI arms race. This was largely provoked by Russian President ignorantly claiming, "whoever becomes the leader in this sphere will become the ruler of the world."

Beside the AI arms race, some general trends in the domain of Narrow AI/ML/DL are highlighted in the AI Index Report 2021.

Overall, the world is entering a new era, with real artificial intelligence taking center stage disrupting the narrow/weak AI of Machine Learning, Deep Learning or Deep Neural Networks.

[Real] AI is going to change all the world from bottom to top more than anything else in the history of mankind. More than any general purpose technologies, from language and writing, steam power, electricity, nuclear power, IT and computing.

It is impacting the future of virtually every part of human life, government, education, work, industry and every human being. Real AI is to act as the main driver of emerging technologies like big data, robotics and IoT, nano-, bio-, neuro-, or cognitive technologies, and it will continue to act as the integrating GPT for the foreseeable future.

Conclusion

The truth is that a few of us use “AI” in the right context. Confusing, misusing and misunderstanding the Real AI vs. Non-Real AI can cause us to create false expectations and predictions, with fallacious statements and assumptions about what the future holds. Due to the global current emergency, the world is to change radically, so thinking critically about the current state of AI technology is crucial if we want to thrive in the future.

To adapt and progress in a world driven by accelerated change, understand the implications of AI on human society, and know where we stand today, we need to first distinguish between two polar types of AI: Real/True/Global AI vs. Non-Real/False/Narrow/Weak/Human-like/Superhuman AI.

And the Real AI4EE Technology has all the power to transform the world and upend all old human institutions. Its socio-political and economic impact could be more than the first nuclear bomb, the Sputnik 1957, and the first man in space 1961, all taken together.

The world is entering a new era, with real artificial intelligence taking center stage.

[리얼] 인공지능은 인류 역사상 그 어떤 것보다 세상을 밑바닥에서 꼭대기로 변화시킬 것이다. 언어와 쓰기, 증기력, 전기, 원자력, IT 및 컴퓨팅에서 그 어떤 범용 기술보다 많습니다.

이는 인간 생활, 정부, 교육, 직장, 산업 및 모든 인간의 거의 모든 부분의 미래에 영향을 미치고 있습니다. Real AI는 빅 데이터, 로봇 공학 및 IoT, 나노, 바이오, 신경 또는 인지 기술과 같은 신흥 기술의 주요 드라이버 역할을 하며 가까운 미래에 통합 GPT 역할을 계속할 것입니다.

Comments