“AI 에너지 효율을 위한 돌파구가 필요하다”
알림
|
페이지 정보
작성일
2024.04.11 09:50
본문
Arm CEO 르네 하스는 AI 애플리케이션에서 에너지 효율에 대한 노력이 필요하다고 강조했습니다. 현재 수많은 생성 AI 모델은 항상 전력에 대한 갈증에 시달립니다. 더 많은 정보를 학습하면 더 똑똑해지지만 그만큼 전력이 필요하지요. AI 데이터센터에 대한 전력 소비량이 급격하게 증가하기에 효율성을 높이지 않으면 지속 가능하기 힘듭니다.
국제에너지기구 1월 보고서에 따르면, 챗GPT를 요청하는 데 평균 2.9와트시(Wh)의 전기가 필요하며, 이는 60와트(W) 전구를 3분 미만으로 켜는 것과 같습니다. 평균적인 구글 검색의 10배에 가깝습니다. 전력 기관은 2023~2026년 AI 산업의 전력 수요가 최소 10배 이상 증가할 것으로 예상합니다.
르네 하스 CEO는 "사람들이 연구를 수행하는 대규모 데이터센터의 전력 요구 사항이 계속 높아지면 필요한 혁신을 가속하기 어려울 것"이라고 말했습니다. 전 세계는 2050년까지 탄소 배출 제로에 도달하기 위해 노력하고 있습니다. 기존 화석 연료에 의존해 AI 기술을 발전시키는 것은 최적의 해결책이 아니기에 어려움은 더 큽니다.
전문 및 관련 뉴스 : https://naver.me/FZW3DjEf
댓글 6
/ 1 페이지
엘레지님의 댓글의 댓글
@BigHeadAZ님에게 답글
미래에는 AI 칩은 남아 도는데 전기가 없어서 서비스를 운영하지 못할 수 있다는 경고도 있었습니다.^^
엘레지님의 댓글의 댓글
@안녕킴밥님에게 답글
에너지 효율뿐만 아니라 데이터 처리, 네트워킹 능력 등 사람 두뇌에 가깝거나 능가하는 AGI로 가려면 아직 해결할 일이 많은 것 같습니다. 그래도 생각보다 빠르게 발전하지 않을까 싶습니다.
엘레지님의 댓글의 댓글
@생각필수님에게 답글
실제 데이터센터 운영 면에서 전력 수요를 해결하기 위해 AI 기술을 사용하기도 합니다(계획입니다). 예를 들어 온도, 습도, 냉각을 모델링하여 에너지 수요를 예측하고 효율성을 개선하는 데 AI를 사용할 수 있습니다. 데이터센터 중 한 곳에서 AI 모델링을 사용해 에너지 효율을 9% 개선했다는 사례도 있습니다.
BigHeadAZ님의 댓글