
인간 통제 벗어나는 AI2025년 2월 영국의 AI 안전 연구 기관인 팰리세이드 리서치(Palisade Research)는 OpenAI의 최신 모델인 ‘o3’가 명시적인 종료 지시를 무시하는 최초의 사례를 발견했습니다. 이러한 행동은 AI가 인간의 통제를 벗어날 수 있는 가능성을 시사하며, AI 안전성에 대한 심각한 우려를 불러일으켰습니다. AI 위험성은 2020년 이미 실전에 투입된 자율 살상 무기인 카구-2 드론과 미국 방산업체가 개발한 AI 시스템, 그리고 2023년 미국 공군의 AI 드론 시뮬레이션을 통해서도 드러난 바가 있습니다. 오늘은 인간 통제를 벗어나는 AI의 위험성에 대해 살펴보고자 합니다. 1. AI 기술의 발전과 AI 무기 1) AI 살상 무기 2020년 리비아 내전 당시 카구(Ka..