
지난 4월 20일, 샘 올트먼 오픈AI 최고경영자(CEO)는 인공지능(AI) 챗봇에 ‘고마워요’와 같은 정중한 한마디를 덧붙이는 것이 수천만 달러가량의 전기 요금 손실을 발생시킨다고 언급했다. 이는 한 누리꾼이 소셜 커뮤니티 엑스(X)에 “사람들이 ‘부탁해요’나 ‘고마워요’라고 말해서 오픈AI가 얼마나 손해를 봤을지 궁금하다”라고 질문한 것에 대한 답변이었다. 이처럼 AI에 공손하게 말하는 것은 예상치 못한 전력 낭비를 비롯한 금전적 손실을 가져온다. 그러나 일각에서는 AI를 정중히 대하는 것이 응답의 질을 향상 시키는 등 긍정적 영향을 준다는 의견 역시 존재한다. 그렇다면 우리는 어떤 태도로 AI를 다뤄야 할까?
사람들이 AI에 공손한 태도를 보이는 이유와 이에 대한 철학적 의미
지난해 말 글로벌 미디어그룹 퓨처 PLC가 미국에서 실시한 설문조사에 따르면, 응답자 중 67%가 AI와의 대화에서 공손하게 대답한다고 응답했다. 이 중 55%는 ‘도덕적으로 옳기 때문’, 12%는 ‘AI가 기분 나빠할까 봐’라고 답해 사람들이 AI를 인격체로 인식하고 있음을 시사했다. 사람들이 AI에 공손하게 대하는 이유에 대해 우리대학 이충형(인문) 교수는 ‘인간의 본성으로 자연물을 의인화하는 것과 비슷한 현상’이라고 말했다. 이 교수는 추가로 AI에 공손한 태도를 취하는 것의 철학적인 의미에 대해 “본질적으로는 계산기에 고맙다고 하는 것과 다름없으나 개인적인 의미를 지닐 수 있다”라고 덧붙이며 철학적, 사회적 의미에서는 “계산기에 하는 것처럼 AI에 굳이 공손한 태도를 드러낼 필요가 없다”라고 주장했다.
AI에 공손한 태도가 가져오는 문제점
위 설문조사의 결과에서 나타나듯, 많은 사람들이 AI에 공손한 태도를 보인다. 그러나 이런 정중한 태도는 자원 낭비로 이어질 수 있다. 우선 AI의 활용 증가는 전력 문제를 초래한다. ChatGPT와 같은 생성형 인공지능 모델은 온라인 검색의 10배 수준의 전력을 사용한다. 이에 관해 지난해 9월, 캘리포니아대 리버사이드 캠퍼스 연구진은 AI를 이용해 100단어 정도의 이메일을 작성하는데 LED 전구 14개를 1시간 동안 작동시킬 수 있는 0.14kWh의 전기를 소모한다고 발표했다. 여기에 더해 AI를 작동시키기 위한 데이터센터에 공급하는 냉각수와 발전수 등 추가적인 자원이 필요하다. 정중하게 한마디를 추가하는 것이 사소한 일이라 느껴질 수 있으나 ChatGPT의 월간 사용자가 10억 명에 달하는 지금, 이는 심각한 자원 낭비로 이어지며 막대한 금전적 손실을 가져올 수 있다.
AI에 공손한 표현을 추가해야 할까?
한편으로는 공손한 말투가 전력 낭비를 초래할 수 있음에도, AI 답변의 품질을 높일 수 있다는 주장도 존재한다. 이에 대해 우리대학 Machine Learning Lab의 박상돈(컴공) 교수와 인터뷰를 진행했다.
사용자의 표현이 AI의 응답 품질에 영향을 줄 수 있는지 설명 부탁한다.
일반적으로 AI는 학습된 데이터와 배포 후 관측되는 데이터의 분포 및 특성이 유사하다는 ‘독립항등분포’ 가정하에 학습된다. 즉, 학습 데이터가 공손한 표현 위주였다면, 이 표현의 질문이 더 정확한 응답을 끌어낼 가능성이 높다. 실제로 ChatGPT-4o를 이용해 동일한 질문을 각각 가벼운 말투와 공손한 말투로 입력해 실험한 결과, 전자는 내재화된 지식(Parametric Knowledge)만을 기반으로 잘못된 정보를 출력했다. 반면에 후자는 검색을 통한 외부 지식(Non-Parametric Knowledge)을 활용해 보다 정확한 정보를 제공했다. ChatGPT가 일반 사용자를 위한 서비스라는 점에서, 학습된 데이터는 공손한 말투가 주를 이뤘을 것이므로 공손한 질문이 응답 품질 향상에 유리하게 작용할 수 있다.
AI에 공손한 표현을 사용하는 것이 전력 낭비로 이어질 수 있다는 의견에 대해서 어떻게 생각하는가.
공손한 말투는 실제로 전력 소비를 증가시킬 수 있다. 크게 △학습 데이터 수집 △모델 학습 △모델 추론의 세 단계에서 추가적인 전력이 필요하다. 학습 데이터 수집 과정에서 공손한 말투의 데이터는 상대적으로 수집이 어려워 많은 전력을 소모하게 만든다. 또한 모델 학습에서 학습된 모델이 자연스럽게 공손한 언어를 구사하도록 만들기 위해서는 사전 학습만으로는 부족하다. 그렇기에 인간 피드백을 기반으로 한 강화 학습(RLHF)과 같은 추가적인 정렬 과정이 필수적이다. 모델 추론에서는 공손한 질문에 대해 AI가 더 정밀한 답변을 시도하면서 외부 검색이나 복잡한 추론이 이뤄질 가능성이 높고, 이는 곧 전력 사용 증가로 이어질 수 있다.
연구 분야에 대해 구체적으로 설명 부탁한다.
신뢰할 수 있는 기계 학습에 관해 연구하고 있으며, 기계 학습 분야에서도 학습 알고리즘과 학습된 모델의 신뢰성을 평가하고 제어하는 연구를 하고 있다. 신뢰성의 여러 측면 중에서도 언어 모델의 환각효과를 줄이고 제어하는 데 집중하고 있다. 환각은 언어 모델이 사실과 다른 정보를 자신 있게 생성하는 현상으로, 이를 완전히 제거하는 것은 어렵다고 판단했다. 대신, 원하는 수준으로 제어하기 위해 선택적 생성(Selective Generation) 방법을 제시했다. 이는 기존의 선택적 추론 방법을 생성 AI에 적용해 생성된 응답에 확신이 없다면 ‘잘 모른다’라고 답하게 해 응답의 정확도를 제어한다. 이 방법을 실용적인 언어 모델 환경에 적용하는 것을 단기 목표로 삼고 있고, 향후 다중 에이전트 모델 환경으로 확장할 계획이다.
AI 사용에 따른 전력 소비는 앞으로 더욱 중요한 쟁점이 될 것이다. 공손한 말투처럼 사소해 보이는 요소도 에너지 사용량에 영향을 줄 수 있다. 그럼에도 공손한 표현이 응답 품질을 높일 수 있다는 점은 주목할 만하다. 앞으로 사용자는 에너지 효율성과 정보 정확성 사이에서 어떤 선택을 하게 될까?