AI의 탄소발자국과 클라우딩 컴퓨팅

황원희 기자 | eco@ecomedia.co.kr | 입력 2020-12-03 12:07:46
  • 글자크기
  • -
  • +
  • 인쇄

[이미디어= 황원희 기자] AI가 점차 우리의 삶으로 들어오면서 모든 사회적, 환경적 문제에 대한 해결책이 될 수 있을지 의문을 제기하는 사람도 늘고 있다. AI는 자율주행차, 의료 진단, 식품관리시스템, 대량 클라우드 컴퓨팅 등에서 적용되고 있다.

 


AI는 풍력·태양광 등 저탄소 에너지원 기조에 따라 송전망에 동력을 공급하는 기술 효율을 높이는 데도 기여할 것으로 보인다. 기계학습 솔루션은 수요와 공급의 예측을 개선할 수 있으며, 전기 발전소가 주어진 지역에 적합한 양의 전력을 생산할 수 있게 한다.

 

다만 AI 시스템과 이를 용이하게 하는 클라우드 컴퓨팅은 자체 에너지에 따른  대가를 지불해야 한다고 한다. 2019년 매사추세츠대 앰허스트(University of Massachusetts Amherst) 연구진은 인간의 언어를 처리하는 AI 시스템인 자연처리언어(NLP) 모델을 구축하고 훈련할 때 배출되는 탄소배출량을 추적했다. 그에 따르면 자연어 처리 모델을 학습시키는 과정에서 배출되는 탄소는 약 284톤에 달한 것으로 나타났다. 

 

또한 킬로와트 단위의 에너지 소비량을 등가 CO2 배출량으로 환산해 NLP 모델 한 개를 훈련하면 뉴욕과 베이징을 오가는 왕복 125회에 해당하는 30만kg의 CO2가 배출되는 것으로 나타났다. 즉 AI가 더 많은 컴퓨팅 파워에 의존하면서 탄소 발자국이 늘어난다는 것이다. 2018년, 오픈AI는 '2012년 이후 최대 규모의 AI 시스템을 양성하는 데 사용되는 컴퓨팅 양이 3.4개월마다 두 배씩 늘어난 것으로 나타났다. 이는 AI 교육 운영에 사용되는 컴퓨팅 파워의 30만 배 증가에 해당하는 수치이다. 

 

또한 2018년 3월 발표된 캐나다 맥마스터대의 연구진의 연구보고에 따르면 IT 부문의 온실가스 배출량은 2020년 세계 온실가스 배출량의 3.0~3.6%를 차지할 것으로 추정된다. 이러한 배출량을 줄이는 데 있어 중요한 장벽은 투명성이다. 현재 아마존 웹 서비스, 구글 클라우드 플랫폼, 마이크로소프트 애저(Azure)와 같은 클라우드 컴퓨팅 플레이어들은 데이터 저장 센터의 에너지 사용을 공개할 필요가 없다. 이로 인해 클라우드 컴퓨팅을 사용하는 수백만 기업과 수많은 산업체가 자신의 디지털 탄소 발자국을 완전히 평가하기 어렵게 된다. 

 

한편 뉴욕 코넬대 AI 연구진은 컴퓨팅과 기계학습 모델의 결과로 이산화탄소가 얼마나 배출되는지를 보여주는 알고리즘을 개발하면서 스스로 문제 해결에 나섰다. 연구원들은 '에너지 사용량 보고서'가 빅 컴퓨팅에 대한 환경 인식을 개선하기 위한 표준 책임 프로세스의 일부로 널리 사용되기를 바란다고 밝혀 탄소발자국 저감에 조금이나마 기여할 수 있는 길이 열릴 것으로 보인다.

 

전문가들은 알고리즘의 지나친 경쟁을 막기 위해 연구자들 스스로 효율적인 알고리즘 개발을 염두에 둘 필요가 있다고 지적한다. 데이터 처리에 따른 에너지를 엄청나게 소모하는 복잡한 네트워크는 성능은 좋을지 몰라도 너무 많은 탄소발자국으로 인해 해로움을 끼칠 수도 있기 때문이다. 

 

[저작권자ⓒ 이미디어. 무단전재-재배포 금지]

  • 카카오톡 보내기
  • 카카오스토리 보내기
  • 글자크기
  • +
  • -
  • 인쇄
  • 내용복사

헤드라인

섹션별 최신기사

많이 본 기사

오늘의 핫 이슈

ECO 뉴스

more

환경신문고

more

HOT포토