인공신경망 결과 도출 과정
알림
|
페이지 정보
작성일
2024.10.09 00:18
본문
(AFP=연합뉴스) 김영은 기자 = 올해 노벨 물리학상 수상자로 인공지능(AI) 머신러닝(기계학습)의 기초를 확립한 존 홉필드(91)와 제프리 힌턴(76)이 선정됐다. AI 분야에서 노벨상 수상자가 나온 것은 이번이 처음이다.
8일(현지시간) 스웨덴 왕립과학원 노벨위원회는 "우리가 AI에 대해 이야기할 때는 인공신경망을 이용한 머신러닝을 의미하는 경우가 보통이다"면서 "이들은 물리학적 도구를 이용해 오늘날 강력한 머신러닝의 기초가 된 방법론을 개발했다"고 소개했다.
인간의 뇌를 구성하는 뉴런(신경세포)의 상호 연결(시냅스)이 강해지거나 약해지면서 학습이 이뤄지는 것을 모방해 기계도 여러 계층으로 나뉜 노드를 활용해 데이터를 학습하는 길을 열었다는 것이다.
댓글 9
/ 1 페이지
도시방랑자님의 댓글
대학다닐때 인공지능 과목에서 제일 재밌었던 부분이 뉴럴이었는대....
석사때 교수님이 SVM을 시키시는 바람에 흥미를 잃고 나가 떨어져 버렸네요.
생각해보면 아쉽네요.
석사때 교수님이 SVM을 시키시는 바람에 흥미를 잃고 나가 떨어져 버렸네요.
생각해보면 아쉽네요.
고약상자님의 댓글
저희 병원이 여기에 엄청나게 투자하고 있습니다. 좀 있으면 완전히 AI 베이스로 돌아가는 병원될 것 같습니다.
얘기 들어보면, 대부분의 과들이 다 프로젝트 들어가네요. 얼마 지나지 않아 큰 변화가 있을 것 같습니다.
얘기 들어보면, 대부분의 과들이 다 프로젝트 들어가네요. 얼마 지나지 않아 큰 변화가 있을 것 같습니다.
떡갈나무님의 댓글의 댓글
@고약상자님에게 답글
오호~ 그러시군요.
새로운 소식 있으시면 글 좀 부탁 드립니다~
늘 좋은 글 잘 보고 있습니다~ :)
새로운 소식 있으시면 글 좀 부탁 드립니다~
늘 좋은 글 잘 보고 있습니다~ :)
읍읍님의 댓글
저렇게 작동되는 AI방식이 꽤 준수한 성능을 내고 있고 또 여러 자료들도 많고 해서 오랜기간 흔하게 사용되곤 있는데, 실제로 우리뇌가 작동되는 방식과는 다르다고 하더라고요. 저 방식은 너무 많은 트레이닝 데이터를 필요로 하고 또 더 똑똑해지려면 더많은 트레이닝 데이터 + 그를 처리할 어마무시한 에너지가 필요한데.. 생각해보면 인간은 나무라는것을 태어나 한번만 보면 나무라고 인지하기 시작한답니다. 근본적으로 작동하는 원리가 다르고 훨씬 효율적이라네요. 언젠가 이 뇌의 방식을 제대로 따라하는 새로운 방식의 AI가 나오면 그때부턴 정말 후덜덜 할것같습니다.
molla님의 댓글의 댓글
@읍읍님에게 답글
뭐 우리 뇌가 작동되는 방식을 정확히 알지는 못하고 있지요.
일단 기존에 알려진게 뉴런이라, 그걸 비슷하게 해 보자 로 하다가 나온 걸로 알고 있습니다. 오랜 기간 흔하게 사용되어 왔다고 보기엔... 저게 80년대 초반에 나온 건데 한 30년 이상을 버려진 방식이었습니다. 계산량이 하도 많다 보니, 궁극적으로 잘 쓰면 괜찮지 않을까? 수준에서 넘어가질 못하고 있었지요. 그러다가 컴퓨터가 빨라지면서 저걸 정말 크게 만들어 보자 하면서 나오기 시작한 게 딥러닝 이라고 불리는 것들이지요. 그 전 인공지능이란 것들은 저 중간층이 매우 얇았습니다. 컴퓨팅 파워 부족이라 저걸 늘리면 답이 아예 안 나오는 수준이었으니까요. 딥러닝은 저 중간층을 깊게 만들어 보자는 거였는데, 그걸 하다보니 생각보다 어마어마한 결과물들이 툭툭 튀어나오게 된 거죠. 그걸 시작한 건 이제 10년 좀 넘었을 겁니다.
아직은 중간층을 연결하는 방식이 뇌를 제대로 못 따라하고 있다고 생각하는 부분들이 아직 뇌를 못 따라가고 있다고 여기고 있는 것이지요. 그걸 현재는 어마무시한 양과 속도로 커버하고 있는 것이구요. 계속 발전하고 있는 건 어떻게 중간층을 줄여 계산양을 줄이면서 결과물은 비슷하게 만들 수 있느냐 부분이지요.
일단 기존에 알려진게 뉴런이라, 그걸 비슷하게 해 보자 로 하다가 나온 걸로 알고 있습니다. 오랜 기간 흔하게 사용되어 왔다고 보기엔... 저게 80년대 초반에 나온 건데 한 30년 이상을 버려진 방식이었습니다. 계산량이 하도 많다 보니, 궁극적으로 잘 쓰면 괜찮지 않을까? 수준에서 넘어가질 못하고 있었지요. 그러다가 컴퓨터가 빨라지면서 저걸 정말 크게 만들어 보자 하면서 나오기 시작한 게 딥러닝 이라고 불리는 것들이지요. 그 전 인공지능이란 것들은 저 중간층이 매우 얇았습니다. 컴퓨팅 파워 부족이라 저걸 늘리면 답이 아예 안 나오는 수준이었으니까요. 딥러닝은 저 중간층을 깊게 만들어 보자는 거였는데, 그걸 하다보니 생각보다 어마어마한 결과물들이 툭툭 튀어나오게 된 거죠. 그걸 시작한 건 이제 10년 좀 넘었을 겁니다.
아직은 중간층을 연결하는 방식이 뇌를 제대로 못 따라하고 있다고 생각하는 부분들이 아직 뇌를 못 따라가고 있다고 여기고 있는 것이지요. 그걸 현재는 어마무시한 양과 속도로 커버하고 있는 것이구요. 계속 발전하고 있는 건 어떻게 중간층을 줄여 계산양을 줄이면서 결과물은 비슷하게 만들 수 있느냐 부분이지요.
어머님의 댓글의 댓글
@읍읍님에게 답글
우리가 나무라는 것을 보고 한번에 나무라는 것을 인지할 정도로 발전하기까지 최소유 4-6년이 걸립니다. 그동안 인간의 뇌가 수많은 음성 시각 촉각 후각등의 데이터를 가지고 훈련을 하고 있는거죠. 심지어 다른 사람들과 같이 생활하면서 단순 learning이 아닌 reinforced learning까지 되는 거죠.
인간도 한번에 나무를 인지할 수준까지는 수많은 데이터와 학습이 필요합니다.
인간이라는 몸뚱이가 어마무시한 효율을 가진건 사실이지만 그렇다고 아무런 학습없이 intelligence가 나타나지 않습니다.
인간도 한번에 나무를 인지할 수준까지는 수많은 데이터와 학습이 필요합니다.
인간이라는 몸뚱이가 어마무시한 효율을 가진건 사실이지만 그렇다고 아무런 학습없이 intelligence가 나타나지 않습니다.
읍읍님의 댓글의 댓글
@어머님에게 답글
제가 전문가는 아니지만.. 좀 찾아봤습니다. https://www.ox.ac.uk/news/2024-01-03-study-shows-way-brain-learns-different-way-artificial-intelligence-systems-learn
챗 지피티에 요약시켜보니,
현재 인공지능(AI)의 작동 방식은 인간의 뇌와는 근본적으로 다릅니다. 인간의 뇌는 새로운 정보를 한 번만 접해도 이를 학습할 수 있고, 기존 지식과 충돌하지 않게 새로운 정보를 습득하는 반면, AI 시스템은 같은 데이터를 여러 번 학습해야 하고, 새로운 정보가 기존 지식에 간섭하는 경우도 많습니다.
AI는 **역전파(backpropagation)**라는 알고리즘을 사용하여 오류를 줄이도록 신경망의 가중치를 조정합니다. 반면 인간의 뇌는 먼저 뉴런 간의 활동을 최적의 균형 상태로 설정한 후 시냅스 연결을 조정합니다. 이 과정은 기존 정보를 보존하면서 학습을 촉진하는 데 더 효율적입니다. 최근 연구는 이러한 뇌의 학습 원리를 **'전망적 구성(prospective configuration)'**이라 부르며, 이를 통해 뇌가 정보를 처리하는 방식이 AI보다 더 빠르고 효율적임을 밝혔습니다.
라네요..
챗 지피티에 요약시켜보니,
현재 인공지능(AI)의 작동 방식은 인간의 뇌와는 근본적으로 다릅니다. 인간의 뇌는 새로운 정보를 한 번만 접해도 이를 학습할 수 있고, 기존 지식과 충돌하지 않게 새로운 정보를 습득하는 반면, AI 시스템은 같은 데이터를 여러 번 학습해야 하고, 새로운 정보가 기존 지식에 간섭하는 경우도 많습니다.
AI는 **역전파(backpropagation)**라는 알고리즘을 사용하여 오류를 줄이도록 신경망의 가중치를 조정합니다. 반면 인간의 뇌는 먼저 뉴런 간의 활동을 최적의 균형 상태로 설정한 후 시냅스 연결을 조정합니다. 이 과정은 기존 정보를 보존하면서 학습을 촉진하는 데 더 효율적입니다. 최근 연구는 이러한 뇌의 학습 원리를 **'전망적 구성(prospective configuration)'**이라 부르며, 이를 통해 뇌가 정보를 처리하는 방식이 AI보다 더 빠르고 효율적임을 밝혔습니다.
라네요..
striatum님의 댓글의 댓글
@읍읍님에게 답글
사실 아직까지도 뇌의 작동기전을 세세히 알지 못하기 때문에 어찌보면 당연한 것 같습니다.
지금도 "기억"의 원리를 세포들의 변화로 (정확하게는 시냅스의 변화) 현상적으로는 발견했지만, 어떻게 네트워크를 형성하여 과거 기억, 현재 기억이 분리되는지 아직 아는게 너무 없거든요. 이전에는 단순히 뉴런만이 이 기능에 참여한다고 알려져있었는데 이제는 에스트로사이트 등 신경교세포의 역할도 드러나고 있고... 단순한 이야기는 아닌 것 같습니다.
결국 학습을 넘어 지능이라는 것까지 세세하게 이해해야하는데, 실험적으로도 하기 힘들죠.
지금도 "기억"의 원리를 세포들의 변화로 (정확하게는 시냅스의 변화) 현상적으로는 발견했지만, 어떻게 네트워크를 형성하여 과거 기억, 현재 기억이 분리되는지 아직 아는게 너무 없거든요. 이전에는 단순히 뉴런만이 이 기능에 참여한다고 알려져있었는데 이제는 에스트로사이트 등 신경교세포의 역할도 드러나고 있고... 단순한 이야기는 아닌 것 같습니다.
결국 학습을 넘어 지능이라는 것까지 세세하게 이해해야하는데, 실험적으로도 하기 힘들죠.
트레이너최님의 댓글
저걸 깨는 사람이 다음 상을 받을듯..