다모앙 커뮤니티 운영 규칙을 확인하세요.
X

딥시크 돌풍은 Ai 미래에 좋진 않네요

페이지 정보

작성자 no_profile 고미
작성일 2025.01.30 13:19
3,339 조회
19 추천

본문

그동안 챗GTP류 등 인공지능이 성장한게 오픈소스를 바탕으로 한거였는데

딥시크는 이걸 참 기가막히게 이용했네요


이름이 딥시크인데 직접 사용해보니 딥하다기보단 

상당히 정제된 데이터를 기반으로 하고 있습니다


트래쉬 데이터를 많이 걸러내면서 소소한 정보들도 함께 빠진 경량모델이란 느낌입니다


기존 모델들이 만든 데이터도 가져왔겠지만 중국의 검열을 거친 데이터를 기반으로 하면서

정보 긁어올때도 사용자 데이터가 많고 유명하다고 해도 페이크정보가 많은 사이트들은

상당히 제한적으로 가져오는거 같습니다


그게 저성능 칩을 사용하고 비용을 줄이는게 가능했던 이유인것도 같고요


덕분에 신뢰도는 오히려 개선된 느낌입니다


동양스러운 정보를 물어보면 더 양질의 컨텐츠를 뽑아주기도 하네요


다만 이런 식의 AI들이 늘어나면 기존업체들이 정보의 벽을 더 세울수 밖에 없을거 같습니다


사실 딥시크 같은 형태의 모델이 전혀 없던 것도 아닌데 중국업체가 그것도 경량으로

작업했다는게 충격인거 같네요


동남아 국가들도 몇년전부터 정부가 주도적으로 투자하고 있는데

한국은 R&D 끊고 대북전단이나 저급 무인기 같은걸로

전쟁이나 해보자고 하니 .... 참 씁쓸하네요

19추천인 목록보기
댓글 33 / 1 페이지

엉클머리님의 댓글

작성자 엉클머리
작성일 01.30 13:22
저성능 칩이라고 하지만, 사용한 엔비디아 H머신이 5만대 정도입니다. 1조 4천억 규모로 추정하고 있습니다. 그 정도 자본을 투입했지만 딥시크의 성능은 10개월 정도 뒤쳐져 있다는 평가도 있습니다.

고미님의 댓글의 댓글

대댓글 작성자 no_profile 고미
작성일 01.30 13:25
@엉클머리님에게 답글 인해전술같은 병렬작업이 무섭긴 하죠

검열을 거친 중국 내 데이터도 가져다 썼는데 그게 또 보이지 않게 비용을 줄여줬다고 봅니다

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.30 13:29
@엉클머리님에게 답글 @고미 수정중에 댓글을 달아주셨습니다 :-) 5만대라고 공식적으로 어디에 발표된 것이 아니라 업계 전문가가 5만대로 추정하며 그 비용대비 성과에 대한 평가였습니다. 속속들이 평가등이 나오고 있는데, 가장 눈에 띄는 문제가 정확성이 매우 떨어진다는 겁니다.

가꾸님의 댓글의 댓글

대댓글 작성자 가꾸
작성일 01.30 13:55
@엉클머리님에게 답글 V3 논문에 256개의 서버 노드에 각각 8개의 H800 GPU를 장착하여, 총 2,048개의 H800 GPU를 활용해 학습했다고 나와있습니다.
하지만 파라미터 튜닝을 위해 여러 설정으로 시도를 했다고도 함께 적혀있는데, 여러 시도를 병렬적으로 해서 추측한게 5만대로 보는거 같아요

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.30 14:00
@가꾸님에게 답글 오히려 R1보다는 V3 논문이 전문가들에게 충격을 줬던 모양입니다. 자세한 답글 감사합니다. 참, 제가 언급한 전문가중 한명은 앤트로픽의 대표입니다.

가꾸님의 댓글의 댓글

대댓글 작성자 가꾸
작성일 01.30 14:05
@엉클머리님에게 답글 R1은 V3의 개선판으로 지도학습이 아닌 강화학습으로 진행했는데, 이는 기존에도 쓰이는 LLM 학습 기법이었습니다.
하지만 데이터 생성도 평가도 LLM이 하여 학습하는데 V3보다 2~3배 하드웨어가 소모 되었을것 같네요.

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.30 14:15
@가꾸님에게 답글 말씀처럼 기술은 별 다를 게 없는데, 베이스 모델이라고 밝힌 LLM의 (아마도 o1) 평가도 부정확 할 수 밖에 없는 이유로, 정확성이 훨씬 떨어지게된 원인으로 지목받고 있습니다. 원래는 모델이 붕괴되어야 하는데, 붕괴 직전의 모멘트를 잘 잡아서 상업화를 했다고 봅니다. 그 부정확성을 커버하기 위해서 에이전트가 웹데이터를 다른 에이전트 대비해 4배까지 더 많이 소비하게되면서, 서빙 비용이 늘어나서 오히려 더 많은 컴퓨팅 파워가 필요할 거라는 추정이 있습니다. 붕괴 직전의 모델로 센세이션을 일으켜서 상업화에 성공한 사례를 접하고 있습니다. 이럴수도 있구나... yo 지속 가능해보이진 않습니다.

가꾸님의 댓글의 댓글

대댓글 작성자 가꾸
작성일 01.30 15:03
@엉클머리님에게 답글 모델을 서빙하는 것은 학습하는 것에 비해 매우 적은 리소스만 사용합니다.
학습하기 위해선 모든 파라미터의 연산을 저장하고 loss를 적용하는 데에 비해, 서빙은 모든 파라미터의 연산을 저장할 필요 없이 내뱉으면 끝이라 리소스를 매우 적게 먹습니다.
그래서, 70B 모델도 학습하는데 몇백대의 GPU가 필요하지만 실행하는데엔 맥스튜디오 192기가에서 동작이 가능하죠.

붕괴에 대해서는 우선 llm에 첫 적용된 RLHF에 대해 이야기 하겠습니다. RLHF는 다른 llm이 평가용으로 reward 모델로 만들어 평가를 진행하는데, reward model에 최적화 되는, 즉 붕괴를 막기 위해 평가와 함께 원래 정답도 활용해 문법적, 어법적 붕괴를 방지합니다. 현재는 여러한 붕괴방지 방법들이 나와 있는 상태입니다.
그리고 매 학습을 진행하면서 중간 중간 저장을 하면 붕괴 측면이든 성능 측면에든 가장 좋은 모델을 골라 상업화 및 공개 하는 것은 흔합니다. 이러하지 않은 모델은 완전 연구용 말곤 없을거에요.

제가 V3보다 2~3배 하드웨어가 소모 되었을 것이라 한 이유는 웹 데이터를 쓰든 무얼 하든 기존 모델을 학습 하는 것에 비해, 평가 모델도 함께 학습 한다 하면 2배이기 때문에, 3배보다 더 많이 들리가 없어서 그렇습니다.
저는 리소스 측면에서 말씀드린 것으로 진짜 금액적인 비용을 말씀하는 것이면 비교가 불가한게, 미국과 중국의 전기세, 클라우드 비용, openai의 모델 사용료엔 순수 하드웨어 비용이 아닌 이익 및 네트워킹 비용 등 많은 것을 함께 고려해야 하기에 그건 같은 선상에서 두고 비교하기 힘듭니다.

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.30 15:10
@가꾸님에게 답글 현재 논란이 되는 부분이 그 가장 좋은 모델을 선별하는 작업까지가 아닌, 최종 모델을 학습한 비용만을 오피셜하게 학습비용이라고 밝힌 부분입니다. 시장에서는 전체 비용이라고 생각했고, 딥시크는 저비용 모델로서 상당한 주목을 이끌었습니다. 말씀처럼 여러 붕괴를 방지하는 기술을 적용했을 텐데 정확도가 17%정도로 평가받기도 합니다. 여러 원인 추정이 있는데, 더 깊이있는 분석을 기다리고 있습니다. 추정 비용은 앤트로픽의 추산입니다. 중국이라 해도 하드웨어 장비등의 비용에서는 큰 차이나지 않을거로 저도 봅니다.

답변에 필요한 데이터가 경쟁 에이전트보다 몇 배 늘어나면서, 인컨텍스트 러닝에 필요한 컴퓨팅이 감당하기 어렵게 증가될 수 있습니다. 사례로는 클로드가 유동적인 응답 컨텍스트 길이로 피크시간에 대응하고 있습니다. 컨텍스트 위도우의 사례는 아니지만, 미국의 시험기간 동안 챗GPT와 클로드가 다운된 사건이 그렇습니다.

깊이있고 흥미로운 답변에 감사드립니다.

가꾸님의 댓글의 댓글

대댓글 작성자 가꾸
작성일 01.30 15:26
@엉클머리님에게 답글 밑에 댓글에 답글이 안뜨네요..

보통 technical report를 할땐 공개한 최종 모델의 학습 리소스만 공개하는게 흔하고, OpenAI 이후 이를 공개하지 않는 애들도 수두룩 합니다. 이에 대해선 OpenAI가 안좋은 습관을 만든 수준이에요...
technical report에선 B100이나 H100과 같이 진짜 비싼게 아닌걸로도 된다는 한마디 수준으로 작성했는데, 이게 "B100이나 H100 제제가 의미없다!!!"+ 'OpenAI보다 매우 저렴한 자체 서비스 비용'으로 언론에서 엄청 띄워준게 문제라고 봅니다.
그리고 벤치마크 성능은 요즘 오차 매우 범위를 크게 잡고 봐야하는게, 실제로 써보면 벤치마크에 나온 비슷한 모델의 성능보다 못한 경우가 많아요. 그래서 저는 일종의 절대 등급을 두고 봅니다.

딥시크가 업계에서 난리인 이유는 사실 아래 3가지 입니다.
1. 미국이 아닌 gpu 제제를 받고 있는 중국
2. 좀 정치적이나 그러한 정보에서 '중국'하긴 하지만 GPT-o1과 같은 비공개 모델과 매우 유사한 추론 성능
3. 그걸 MIT 라이센스로 공개

업계가 아닌 시장에서 난리인건 노이즈 마케팅도 섞였다고 봐요.

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.30 15:28
@가꾸님에게 답글 그러한 견해가 강합니다. 딥시크의 노이즈 마케팅도 다른 커뮤니티에서도 종종 언급이되고 있고, 그런 언급에서는 강하게 의심합니다. 최종 비용에 대해서는 보통 그렇다해도 시장에서는 관례적으로 전체 비용이라고 생각하여 요동쳤다고 봅니다. 이 점은 누군가 왜곡된 해석을 했거나 딥시크가 노렸다고 봅니다. ;-) 시장에서 난리난 건, 딥시크가 저비용으로 해낸 일을 고비용으로 하고 있다는 인프라 투자 방향성의 문제가 제기되었습니다만, 딥시크 논문과 관례의 오해라는 것을 MS가 오늘 800억불을 예정대로 AI 인프라에 투자하겠다고 밝히면서 종식시키는 분위기입니다. 속보가 있어서 작성하러 갑니다. 가꾸님의 견해에 많이 배웠습니다.

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 02.03 16:18
@가꾸님에게 답글 관련된 글을 다른 곳에 작성했습니다. 5만대 수준 분량의 H100 GPU를 사용한 것으로 추정합니다.

https://damoang.net/stock/4418

고구마맛감자님의 댓글

작성일 01.30 13:22
페이스북에서 만든 라마 외 오픈소스로 공개한게 이번 딥시크 아니였나요..?ㄷㄷㄷ
나머지 미국 Ai기업들은 정보를 꽁꽁 숨겨둔걸로 압니다...ㄷㄷㄷ

Bcoder™님의 댓글

작성자 Bcoder™
작성일 01.30 13:24
전 반대로 생각합니다.
기술 경쟁은 진화의 전제조건이라서요.
지금 인공지능 개발은 연구라기보단 돈싸움이 되고 있습니다.

고미님의 댓글의 댓글

대댓글 작성자 no_profile 고미
작성일 01.30 13:28
@Bcoder™님에게 답글 딥씨크가 국가적 특수성으로 선택과 집중을 한거지 기술적으로 크게 개선되었다고 보긴 어려워서요

다만 유사 제품들은 더 만들어질수 있을거 같습니다

Bcoder™님의 댓글의 댓글

대댓글 작성자 Bcoder™
작성일 01.30 13:31
@고미님에게 답글 그렇게 단순한 수준이면 폭탄을 맞은 것처럼 반응 하지 않겠죠. 지금 인공지능 개발 방향에 대한 의구심이 이미 퍼지고 있었기 때문이라 생각합니다.

가꾸님의 댓글의 댓글

대댓글 작성자 가꾸
작성일 01.30 14:01
@Bcoder™님에게 답글 딥씨크는 기술적인 측면에서 보면 작년동안 나온 여러 최적화 연구들과 성능 상승을 위한 연구들을 종합적으로 합쳐서 만든 모델입니다

큰 파동을 일으킨 이유는
1. 미국이 아닌 gpu 제제를 받고 있는 중국에서
2. open 모델로 공개했으며
3. 좀 정치적이나 그러한 정보에서 '중국'하긴 하지만 GPT-o1과 같은 비공개 모델과 매우 유사한 추론 성능을 보인다
는 것이죠

jinisopen님의 댓글

작성자 no_profile jinisopen
작성일 01.30 13:24
네 32비트 숫자로 통계를 뽑아낸 것과 16비트로 통계를 뽑아낸건 결국은 차이가 나지요

엉클머리님의 댓글

작성자 엉클머리
작성일 01.30 13:39
딥시크가 시장에 좋지 않은 영향을 줬는데, 여러 스타트업이 모델을 개발하기 위해서 챗GPT의 데이터를 복제하는 짓(!)을알면서도 그냥 방관하던 OpenAI에게 단속하라는 압박이 생겼고, 전문가들은 민주주의 진영에서 AI의 기술우위를 유지하기 위해 컴퓨팅 장비와 데이터 복제를 강하게 규제해야한다는 목소리가 내고 있습니다. 트럼프 측근이 엔비디아에 중국 수출을 더 강하게 하겠다는 발언이 있었고, 곧바로 앤비디아는 미국 정부의 의견을 따르겠다며 답했습니다.

낮은 비용과 고품질 달성이라는 센세이션을 일으킨 딥시크가 주장하는 성능과 비용에 대한 의심이 커져가고 있는 가운데, 미국 정부는 딥시크가 챗GPT의 데이터를 복제했다는 강력한 증거들이 있다고 합니다.

딥시크는 오픈 모델 생태계에 찬물을 끼얹었다고 봅니다.

제 댓글이 재미있으시면 구독과 좋아요, 알람설정 yo (농담)

가사라님의 댓글

작성자 가사라
작성일 01.30 13:54
R1 의 가치는 단순질답이나 대화기능에 있지 않습니다.
비교적 적은 돈으로 상당한 수준의 추론을 해냈다는 것에 있어요.
이전작인 V3 만해도 성능은 괜찮았지만 그래서 뭐? 라는 반응들이었는데, V3 를 기반으로 해서 오픈소스로 R1 이라는 추론모델을 내놨는데 이게 OpenAI 에서 돈을 엄청 들인 추론모델인 o1 을 발라버리니 이 난리가 난거에요.
다시 말해서 여러 근거들을 살펴보고 숨은 의도가 무엇인지 눈치채고 상대가 원하는 답변을 근사하게 포장해서 내놓을 줄 안다는 겁니다.
그것도 오픈소스에 매우 싼 값으로요.
엔비디아 주가폭락의 이유죠.

일단 이게 오픈소스로 풀렸으니 AI 산업계에게는 매우 좋은 신호입니다.
AGI 뿐만 아니라 Agent 세상을 향해 가는데 추론모델은 필수인데 이게 MIT 라이선스 오픈소스로 나온거거든요.

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.30 13:57
@가사라님에게 답글 그 적은 돈이라는 게, 딥시크의 데이터 생성 비용을 제외한 채로 발표되었습니다. 딥시크는 다른 모델이 생성한 데이터를 학습하는 증류 방식으로 만들어졌습니다. 그러므로 다른 모델이 데이터를 생성하는 비용도 개발비에 포함해야하는데, 그 부분을 의도적으로 누락하여 저비용이라고 발표했다는 의심을 강하게 받고 있습니다.

가사라님의 댓글의 댓글

대댓글 작성자 가사라
작성일 01.30 13:59
@엉클머리님에게 답글 그것도 지금 나오는 추정이죠.
OpenAI 와 비교해서 절대적으로 적은 돈으로 지금의 결과를 만들어낸 것은 분명한 사실입니다.
그리고, 앞으로도 계속 그럴거라는 불안이 엔비디아 주가를 떨구는 거고요.

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.30 14:01
@가사라님에게 답글 그러므로 절대적으로 적은 돈으로 지금의 결과를 만들어냈는지는 현재로서는 알 수 없습니다. 엔비디아 주가가 반등한 이유일 겁니다. ;) 오히려 빅테크 기업들이 들인 돈과 비슷한 규모를 사용했을 거라는 전문가의 추정이 있었습니다. 딥시크가 주장하는 개발비용은 의도적으로 축소되어, 개발 비용의 일부만 공개했다는 말씀을 드렸습니다. 주가는 현상이고, 이를 통해 추정 원인을 분명한 사실로 확정하는 것은 투자에 위험한 요소이므로 저는 시장 앞에 항상 겸손합니다. 주식과 연계해서 언급을 하시기에 의견을 드립니다.

가사라님의 댓글의 댓글

대댓글 작성자 가사라
작성일 01.30 14:35
@엉클머리님에게 답글 OpenAI 와 비교해서 절대적으로 적은 돈이라는건 사실이에요.
ChatGPT 로부터 증류해서 만든 정황증거도 다 있잖아요.
이걸 막을 방법이 있느냐 하는 겁니다.
게다가 기반기술은 미국이 다 개발했다고 하더라도 그걸로 결과를 만들어낸건 중국의 DeepSeek 입니다.
그리고, 엔비디아는 아직 반등안했습니다.
시장은 계속 숨죽이고 눈치보는 중이에요.

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 02.02 20:06
@가사라님에게 답글 클로드를 만든 앤트로픽의 대표는 자신들과 비슷한 비용으로 R1이 만들어졌을 거라고 주장합니다. 즉 R1의 저렴한 학습 비용은 개발비용을 포함할 경우에는 앤트로픽과 비슷한 비용이 들었다고 주장하고 있습니다.

엔비디아는 17% 하락한 후 다음날 9% 상승하며 반등한 것이 사실입니다. 반등이라는 게, 하락 직전의 가격으로 하루만에 오르는 거라고 생각하시나봅니다. 이 부분에 대해서도 서로 견해차이가 있고 현상을 저와는 다르게 인식하고 계셔서, 서로에게 인사이트를 주고받기 어려워보입니다. 가사라님께서는 주장하시는 바를 뒷받침하는 현상으로 주식을 언급하셨습니다. 앞으로 더 논의가 있다면 저는 내용에서 배제하겠습니다. 저는 현상으로 원인을 해석하지 않으려고 합니다.

왜 미국이 기술을 다 만들고도, 그 걸 결과로 만든 게 중국의 딥시크라고 주장하시는지 모르겠습니다.
사실과 다르기 때문에 의아합니다. 결과로 만든 것은 오픈AI와 제미나이, 클로드입니다. 뒤늦게 딥시크는 베껴서 결과를 만들었습니다.

이미 딥시크 출현 전에 o1의 출시, o3를 발표했습니다. 가장 뒤쳐진 것으로 평가받는 구글의 제미나이도 추론에 특화된 모델을 딥시크보다 먼저 선보였기 때문입니다. 다만 공개된 모델이냐 아니냐의 차이가 있을 뿐인데, 이 차이를 성과를 냈느냐 안냈느냐의 차이로 보시는 겁니까.

에피네프린님의 댓글의 댓글

대댓글 작성자 에피네프린
작성일 01.30 14:14
@엉클머리님에게 답글 그냥 논문만 봐도 r1 의 강화학습 방식자체가 간단하고 돈이 적게 들수밖에 없는 방식입니다 모방도 쉽구요

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.30 14:23
@에피네프린님에게 답글 딥시크가 언급한 비용을 시장에서는 그동안의 관례에 따라서 데이터 생성부터 시행착오까지의 모든 학습 비용이라고 생각하고 요동쳤으나. yo

확인해보니 최종 마무리 학습 비용만 밝혔던 것입니다. 그냥 논문만 봐도 쉽게 알 수 있는 사실입니다. ;-)

에피네프린님의 댓글의 댓글

대댓글 작성자 에피네프린
작성일 01.31 08:37
@엉클머리님에게 답글 그들이 밝힌 금액이 맞다는게 아니라, 비용을 적게 들이고 강화학습만으로 성능을 대폭 올릴수 있다는건 사실이라는겁니다.

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.31 11:45
@에피네프린님에게 답글 RL에 대한 교과서 내용은 잘 알겠습니다만, 학습 비용 절감의 핵심은 아닙니다. 그냥 논문만 봐도 쉽게 알 수 있습니다. 그리고 그 비용조차도 빅테크와 비슷하게 사용했을 거라는 업계 관계자들의 주장이 강함니다. 강화학습만으로 성능을 대폭 올릴 수 있다는 주장은 알겠습니다. 동의하진 않습니다.

에피네프린님의 댓글의 댓글

대댓글 작성자 에피네프린
작성일 02.02 19:20
@엉클머리님에게 답글


구체적 사례가 나와서 공유드립니다

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 02.02 19:32
@에피네프린님에게 답글 저 학생의 발표는 이미 읽어봤습니다.

강화학습이든 지도학습이든 30불의 비용으로 CoT를 생성 할 수 있다는 걸 재현한 것으로서, 에피네프린님이 주장하시는 강화학습이 저비용 학습의 핵심이 아니란 걸 재확인하고 있습니다.

저 논문을 읽고 동영상을 제작한 거라면, 특정 성능을 얻을 수 있다는 방법을 재현한 것이고, 그 재현에 30불이 들었다는 내용이어야 합니다. 게다가 발표 내용은 딥시크에서 밝힌 학습 방법 중 CoT생성에 중점을 둔 내용입니다. 비용 절감이 재현의 핵심이 아닙니다.

에피네프린님께서 말씀하시는 맥락은 강화학습에 의한 데이터 준비 비용이 절감되었다는 게 아니라 강화학습 자체가 비용 절감의 방법이고 딥시크의 비용 절감 방법이었다는 맥락인데 이 부분에 대해서는 더이상 드릴 말씀이 없습니다. 딥시크의 발표 논문에 모두 나와있고, 에피네프린님의 말씀처럼 그냥 읽으면 알 수 있기 때문에 제가 별다른 언급은 안하겠습니다. 읽으셨다면 같은 내용을 읽은 사람끼리 해석을 달리 하고 있기 때문입니다. 그리고 왜 그 같은 해석을 하시는지 수차례 댓글에도 밝히고 계시지 않고 동영상을 링크하는 성의 정도를 보이셨습니다. 혹시, 에피네프린님께서는 전반적인 이해를 유튜브를 통해서 하고 계신게 아닐까 하는 생각도듭니다. 저도 이제 소통은 그만하고 AI와 씨름하러 가겠습니다. 공유해주신 점은 감사합니다.

에피네프린님의 댓글의 댓글

대댓글 작성자 에피네프린
작성일 02.02 21:52
@엉클머리님에게 답글 네 뭔가 계속 서로 다른이야기를 하는거 같네요. 저는 r1 distillation 방식에 따른 파운데이션 모델에서 리즈닝 모델로 성능향상하는 비용을 이야기 하고 (원 댓글 쓰신분도요) 엉클머리님은 계속 v3 학습 비용까지 포함 모든 비용을 말씀하시는것 같네요 물론 언론에서 호들갑 떠는건 모든 비용에 대한 오해인게 맞습니다만...

그리고 건전한 소통을 하실 생각이셨다면, 제가 유튭만 보고 이해를 한다거나 본인이 AI 랑 씨름하신다는 이야기는 굳이 안하시는게 좋았을듯 합니다. 보통 이런 사족은 본인의 의견에 권위를 더하는게 아니라 본인의 주장이 부족할때 상대를 깎거나 다른 권위를 덧붙일때 하기 때문이지요...

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 02.02 22:29
@에피네프린님에게 답글 건전한 소통을 하실 생각이셨다면, 그냥 논문만 읽어도 쉽게 알 수 있다고 말씀하실 게 아니라, 그 부분을 구체적으로 말씀하셨어야 합니다. 또 유튜브 따위를 직접 보라고 링크하실 게 아니라, 설명을 직접 하셨어야 합니다. 적어도 상대에게 건전한 소통을 바라는 분이라면, 본인도 그러한 기대를 갖춰야 할 것입니다.

저는 에피네프린님을 깍아내리거나 하지 않았음을 분명히 밝힙니다.

사족을 달았다고 말꼬리를 잡으셨는데, 적절하게 대화를 종료하기 위해서, 에피네프린님의 유튜브 링크 소통 방식을 상기시키면서도 부드럽게 제 탓으로 돌린 것입니다. 직접적으로 말씀드린다면, 에피네프린님이 해당 논문에서 딥시크가 비용 절감을 위해 양자화의 과정을 어떻게 이루었는가에 대해서 언급이 없으셔서 저와는 이해가 다르다고 생각합니다. 강화학습 기술에 대해서 어느정도 상식이 있는 사람이라면 일반적으로 생각할 수 있는 주장만을 되풀이 하신다고 여깁니다. 대화를 종료하는 게 낫겠다는 판단으로, 그 대화 중단의 원인을 조금 겸손하게 표현했습니다만, 이 조차도 오해를 부른 듯합니다. 문제를 삼으셨으니 분명히 사족을 달았던 이유를 밝혔습니다. 저는 주장에 권위를 내세우려고 하지 않았으나, 사족이 권위를 깍는다는 가르치시는 말씀은 알겠습니다. 감사합니다.
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색