본문 바로가기
AI 시대

AI에서 배우는 AI : AI 모델의 종말의 시작이 될 것인가?

by DBJJ 2023. 6. 18.

https://cryptosaurus.tech/ai-learning-from-ai-will-it-be-the-beginning-of-the-end-for-ai-models/

 

AI Learning from AI: Will it be the Beginning of the End for AI Models? - CryptoSaurus

Artificial intelligence (AI) has been a game changer in numerous fields, from healthcare to retail, entertainment and art. However, a new investigation

cryptosaurus.tech

ai model

요약하자면
AI가 생성한 콘텐츠에서 AI가 학습하면 현실에서 모델 붕괴 및 왜곡이 발생할 수 있습니다.
인간이 생성한 실제 데이터에 액세스하는 것은 모델 붕괴를 방지하고 AI 정확성을 보장하는 데 필수적입니다.
통계적 및 기능적 근사 오류는 모델 붕괴의 주요 원인이며, 이러한 오류의 누적은 점점 더 악화되는 부정확성을 생성합니다.
인공 지능(AI)은 의료에서 ​​소매, 엔터테인먼트 및 예술에 이르기까지 수많은 분야에서 게임 체인저였습니다. 그러나 새로운 조사에 따르면 AI가 생성한 콘텐츠에서 학습하는 AI라는 티핑 포인트에 도달했을 수 있습니다.

자신의 꼬리를 먹는 뱀인 이 AI 우로보로스(AI Ouroboros)는 꽤 나빠질 수 있습니다. 여러 영국 대학의 연구 그룹은 AI를 현실과 완전히 분리할 수 있는 퇴행성 과정인 "모델 붕괴"에 대해 경고했습니다.

 

"재귀의 저주: 생성된 데이터에 대한 교육이 모델을 잊게 합니다"라는 제목의 기사에서 케임브리지 대학, 옥스퍼드 대학, 토론토 대학, 임페리얼 칼리지 런던의 연구원들은 "생성된 데이터가 결국 데이터를 오염시킬 때 모델 붕괴가 발생한다고 설명합니다. 차세대 모델의 훈련 세트입니다.”

"오염된 데이터로 훈련을 받음으로써 그들은 현실을 잘못 인식합니다."라고 그들은 썼습니다.

즉, 온라인에 게시된 광범위하게 AI가 생성한 콘텐츠가 AI 시스템으로 다시 빨려 들어가 왜곡과 부정확성을 초래할 수 있습니다.

연구자들은 무언가를 무한정 복사하거나 복제하려고 시도하는 것과 같이 이러한 관행이 더 많은 모델 붕괴 사례로 이어질 수 있다고 말합니다.

 

모델 붕괴의 심각한 의미를 감안할 때 원본 데이터 분포에 대한 액세스가 중요합니다. AI 모델은 세상을 정확하게 이해하고 시뮬레이션하기 위해 인간이 만든 실제 데이터가 필요합니다.

AI 모델의 붕괴를 방지하는 방법
연구 논문에 따르면 모델의 붕괴에는 두 가지 주요 원인이 있습니다. 주된 것은 데이터 샘플의 유한한 수와 관련된 "통계적 근사 오차"입니다. 두 번째는 올바르게 구성되지 않은 AI의 훈련 중에 사용되는 오차 범위에서 파생되는 "기능적 근사 오차"입니다. 이러한 오류는 여러 세대에 걸쳐 누적되어 부정확성을 악화시키는 계단식 효과를 일으킬 수 있습니다.

이 기사는 AI 모델 교육에 대한 "선점자 이점"을 설명합니다. 인간이 생성한 원본 데이터 소스에 대한 액세스를 유지할 수 있다면 해로운 분포 이동과 그에 따른 모델 붕괴를 방지할 수 있습니다.

AI로 생성된 콘텐츠를 대규모로 구별하는 것은 커뮤니티 수준에서 조정이 필요할 수 있는 어려운 과제입니다.

궁극적으로 데이터 무결성의 중요성과 AI에 대한 인간 입력의 영향은 데이터에서 파생된 데이터만큼만 우수하며 AI 생성 콘텐츠의 폭발적 증가는 업계에 양날의 검이 될 수 있습니다. 마치 "쓰레기가 들어오면 쓰레기가 나온다"고 말하는 것과 같습니다. AI 콘텐츠를 기반으로 하는 AI는 많은 매우 지능적이지만 "망상적인" 기계로 이어질 것입니다.

아이러니한 플롯 트위스트는 어떻습니까? 우리보다 서로에게서 더 많은 것을 배우는 우리의 기계 자손은 "망상"이 됩니다. 다음으로 망상 청소년 ChatGPT를 처리해야 합니다.