AI에 대한 반발이 점점 거세지고 있다

생성형 인공지능(AI) 도구들이 빠르게 확산되고 있음에 따라, 이 기술이 가져오는 여러 부정적 영향에 대한 우려와 반발도 점점 더 커지고 있습니다.
생성형 AI는 사이버 보안과 개인정보 보호 측면에서 새로운 위협을 만들어내고 있습니다. 예를 들어, AI가 매우 실제 같은 피싱 이메일이나 메시지를 자동으로 만들어 내면서 소셜 엔지니어링 공격이 한층 정교해졌습니다. 이로 인해 더 많은 사람들이 공격에 속을 위험이 커졌습니다. 또한 생성형 AI는 복잡한 악성코드를 쉽게 만들어내거나 다양한 변종을 자동으로 생성할 수 있게 도와주어, 사이버 범죄자들에게 유리한 환경을 제공합니다.
개인정보 침해 또한 심각한 문제로 떠오르고 있습니다. AI 모델이 개인적인 데이터를 학습에 이용하면서 정보가 유출되거나 잘못 사용될 위험이 높아집니다. 특히, 사용자가 입력한 민감한 데이터가 무단으로 공개되거나 악용될 가능성도 커졌습니다.
딥페이크 기술의 발달로 인해, 생성형 AI를 활용한 조작된 영상이나 음성 콘텐츠가 손쉽게 만들어지고 있습니다. 이는 신뢰를 훼손하고, 명예훼손이나 사기 등 범죄에 악용될 수 있으며, 여론 조작을 포함한 사회적 혼란을 야기할 수 있습니다.
교육 분야에서도 생성형 AI 도구의 도입이 활발하지만, 장기적으로는 학생들의 학습 능력 저하 등 부정적 영향이 나타날 수 있음이 연구 결과로 드러나고 있습니다. AI가 제공하는 답변에 과도하게 의존하게 되면, 학생들의 비판적 사고력이나 문제 해결 능력이 떨어질 수 있습니다.
이 밖에도 생성형 AI가 편향된 데이터를 학습함으로써 사회적 편견을 증폭시키거나, 허위 정보의 확산, 자동화된 공격 및 보안 취약점 탐색 등의 부작용도 지적되고 있습니다. 이런 다양한 문제로 인해 생성형 AI에 대한 사회적 반발과 규제 요구가 점점 강화되고 있는 상황입니다.