과학 분야에서 AI 과의존이 가져오는 부작용
최근 다양한 과학 분야에서 인공지능(AI)의 활용이 증가하고 있다. 2012년에서 2022년 사이, 경제학, 지질학, 정치학, 심리학 등 20개 분야에서 AI 관련 논문의 평균 비율은 4배 증가했다. AI가 과학적 발견을 가속화할 수 있을 것이라는 기대가 높아지고 있다. 그러나 AI 도입의 급증은 여러 위험을 내포하고 있다. 질병 발병 예측 및 생활 결과 예측과 같은 분야에서 AI를 활용할 때 신중함이 필요하다. AI는 기존 통계 방법보다 복잡하고 더 많은 위험을 수반한다. 컴퓨터 과학에 대한 전문 지식이 없는 연구자가 단순한 AI 도구를 잘못 사용하면 예측 능력을 과대 평가하고, 진정한 진보가 있는 것처럼 보이는 착각을 일으킬 수 있다.
AI 모델링 기반 접근법의 문제점과 오류
AI 모델링 기반 접근법으로 예측하거나 가설을 검증할 때 주의해야 할 문제가 있다. 가장 흔한 오류 중 하나는 '누출'로, 모델의 평가 데이터가 부적절하게 훈련 과정에 영향을 미치는 경우를 말한다. 이로 인해 모델이 의미 있는 통찰력을 포착하기보다는 패턴을 암기하게 되며, 실질적인 학문적 지식을 제공하지 못한다.
연구의 신뢰성 향상을 위한 가이드라인 필요
AI를 활용하는 여러 과학 분야의 연구 논문에서 머신러닝의 누출 문제가 발견되고 있다. 예를 들어, COVID-19 팬데믹 동안 AI가 가슴 X선이나 CT 스캔을 통해 질병을 진단할 수 있다는 연구가 많았지만, 체계적인 검토 결과 기본 품질 기준을 충족한 연구는 극히 일부에 불과했다. 이러한 오류를 검출하는 데 어려움이 따르며, 예측 정확성을 평가하는 방법은 표준화되지 않았다. 대형 언어 모델 사용의 증가도 추가적인 위험을 내포하며, 입력 변화에 대한 민감성으로 인해 다양한 출력이 발생할 수 있고, 제한된 접근은 중복성을 저해한다.
결론적으로, AI의 잠재력이 큼에도 불구하고 많은 연구 결과가 진정한 과학적 진보로 연결되지 않을 가능성이 있다. AI가 이론 및 패러다임의 발전을 방해할 잠재력을 지니고 있는 만큼, 과학적 연구에서 AI 활용에 대한 명확한 가이드라인을 마련하고 예측 정확성과 이해의 균형을 맞추는 것이 중요하다. AI의 한계를 인정하고 연구자들이 AI 기반 모델을 비판적으로 접근해야만 과학 연구의 신뢰성을 높일 수 있을 것이다.
출처 : 원문 보러가기