다모앙 커뮤니티 운영 규칙을 확인하세요.
X

"딥시크가 '챗GPT' 베낀 증거 있어"오픈AI, 합성데이터 활용 방지 예고.gisa

페이지 정보

작성자 파이랜
작성일 2025.01.29 23:26
3,598 조회
6 추천

본문

6추천인 목록보기
댓글 41 / 1 페이지

아름다운별님의 댓글

작성자 아름다운별
작성일 01.29 23:30
어느 정도 섞여 들어가긴 했을 것 같긴 해요
(직접 OpenAI, ChatGPT라고 답한 목격담도 여러 개 있어서요)

근데 오픈AI도 학습 데이터 문제로 저작권 소송 맞고 있는 중이라 당당한 입장은 아니어서,
강하게 나가지는 못 할 거라는 예상이 많더라고요

비버님의 댓글

작성자 no_profile 비버
작성일 01.29 23:52
오픈ai가 투자금이 즐어들거같은 위기감을 느끼고있는거같네요

안녕클리앙님의 댓글

작성자 안녕클리앙
작성일 01.30 00:03
나는 베껴도 되지만 너는 안돼
뭐 이런 건가여

LeadK님의 댓글

작성자 LeadK
작성일 01.30 00:03
Deepseek에게 openai 자체 데이터 사용했나요 물어보면
"정확히 말씀드리면, **"OpenAI의 자체 데이터"를 사용하지 않았다는 의미가 아닙니다**. 
저는 인터넷에 공개된 방대한 텍스트 데이터(도서, 웹사이트, 기사, 논문 등)를 학습했으며, 이 과정에서 **공개적으로 접근 가능한 정보**만 사용되었습니다. OpenAI의 모델 학습에는 개인 정보, 비공개 대화, 회사 내부 문서 등 **공개되지 않은 자료는 포함되지 않았습니다**.  "

엉클머리님의 댓글

작성자 엉클머리
작성일 01.30 00:17
딥시크 R1 이전 모델였던 딥시크 V3 버전이 ChatGPT 4o와 거의 같은 답변을 한다는 리뷰가 좀 있었습니다.

직접 딥시크의 발표 R1의 논문을 보니까 헛웃음이 나옵니다. 최종 학습 비용만 강조하고 있기 때문입니다. 초기에 콜드스타트 데이터를 만들어 줬다는 이야기가 나오는데, 학습 데이터를 만드는 비용을 제외하고 계산한 꼼수 때문에 엔비디아가 17% 폭락하기도 했습니다. 아마 그 비용은 챗GPT 사용료 아닐까 싶습니다.

딥시크 R1은 학습에 필요한 데이터를 다른 모델로 만들어서 사용했습니다. 그런데 데이터를 만드는 과정을 명확히 밝히지 않았고, 비용도 숨기고 있습니다. 여러 정황상 o1의 답변을 이용했을 거라는 의심이 제기되고 있습니다. 저도 배꼈다는 느낌이 강하게 듭니다. 현재 시장이 요동치고 있지만, 사실이 이러하다면 딥시크는 경쟁 우위를 점할 수 있는 모델이 아닙니다. 메타의 라마가 새로 발표되면 오픈 모델의 오리지널 강자가 어디인지 확실해 질겁니다.

또 성능이나 비용 측면에서 구글의 Gemini Flash 2.0의 CoT 실험버전이 더 저렴하고 성능이 좋습니다. 다만 구글은 검열이 문제가 있습니다. 아, 딥시크도 검열 문제가 있습니다. ;-)

참, OpenAI가 이번주에 o3-mini를 발표할 예정인데, 구글과 오픈AI가 서로를 초치기 하므로 제미나이 2.0 플래시 CoT 버전도 이번주에 발표될 가능성이 있습니다.

흥미로운 이야기를 덧붙이자면, 4o 발표 시점에 이미 ChatGPT 5 버전이 있었을 가능성이 있습니다. o1을 이용해 R1을 만든 방식으로, 5를 이용해 4o를 만들었을 거라는 소문입니다.

칼쓰뎅님의 댓글의 댓글

대댓글 작성자 칼쓰뎅
작성일 01.30 00:59
@엉클머리님에게 답글 뭐... 그래도 o1의 동작원리?를 오픈소스화 한 공은 쳐도되지않을까 싶습니다 ㅎㅎ
지금 라마는... 4버젼이 r1보다 못하다고 해서 난리났다는 루머를 들었었네요.

근데 llama4가 컨셉기억 방식인지 아니면 기존방식에서 좀 나은건지 잘 모르겠습니다.
컨셉기억 방식이면 그렇게 가는게 맞을꺼 같고요. (사실 인간이 그런식이니...)

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.30 01:03
@칼쓰뎅님에게 답글 o1의 동작원리는 open-r1으로 밝혀지고(!) 있습니다. 그런데 이 건 딥시크 R1을 역분석해서 만든겁니다....

라마4는 늘 그럿듯 여러 형태로 가공될 수 있도록 튜닝 없이 나올겁니다. 날것 그대로는 성능이 떨어질 텐데, 발표하면 일주일 이내에 o1의 추론 방식이 도입될 거라 예상합니다.

저의 댓글 재미있으시면 구독과 좋아요 알람설정...(농담 yo)

Purme님의 댓글의 댓글

대댓글 작성자 Purme
작성일 01.30 01:40
@엉클머리님에게 답글 혹시 안될공학 에러신가요? ㅋㅋㅋ
요즘 그분 노 들어올 때 물 저으시던데...

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.30 02:06
@Purme님에게 답글 전 아닙니다. 가끔 즐겨 봅니다. 그 분도 발표된 자료를 토대로 최신 소식을 빼놓지 않고 읽나봅내다. 저도 그렇습니다. 소스가 비슷하다보니 비슷해 보일 수 있습니다. 그러나 저는 독자적입니다. ;-)

여담으로 주식 시장은 MS가 딥시크때문에 투자를 줄이겠다는 발표를 기대할지 모릅니다. 투자자들은 수익 개선을 바라고 있으니까요. 그런데 MS가 그럴리가요. 5를 4o로 만들었다는 소문처럼, 기술은 이미 상상할 수 있는 거였습니다. 단지 거대 중국 자본으로 실행에 옮긴 또 다른 회사가 딥시크 였을 뿐입니다. 그 게 처음보는 대단한 기술이라고 MS는 여기지 않을겁니다. 고작 알고있는 기술이 공개되었다고, 혹은 처음보는 기술이라고, MS가 투자를 줄인다면 MS의 미래는 밝지 않을 겁니다. 딥시크 방식을 몰랐다는 것은 의사결정의 맹점으로 드러나기 때문입니다. MS가 투자를 줄이지 않을거라고 보면서 시장을 관찰 중입니다. 왜냐하면 데이터센터 관련 설비 업종이 반등할 것이기 때문입니다.

적어도 AI관련한 이런 시장 관점이나 풍부한 풍문들은 오직 저의 다모앙의 댓글로만...yo ;-)

Purme님의 댓글의 댓글

대댓글 작성자 Purme
작성일 01.30 02:32
@엉클머리님에게 답글 네, 그렇군요.
좋은 내용과 의견 공유 감사합니다.
계속 좋은 활동 부탁드립니다~

어머님의 댓글의 댓글

대댓글 작성자 어머
작성일 01.30 03:51
@엉클머리님에게 답글 제미나이 새로 나온거 말은 좋다고 하는데 체감은 딥시크 보다 떨어지는 느낌이고 딥시크는 무료 아닌가요? 오픈웨이트고. 단순 api calling가격만 보고 재미나이가 더 저렴하다고 할수는 없어 보입니다

물론 대부분 사람들이 착각하는게 딥시크도 로컬로 제대로 돌릴려면 최소 10억은 듭니다만 ㅎㅎ

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.30 03:59
@어머님에게 답글 동의 할 수 없습니다. :-(

어머님의 댓글의 댓글

대댓글 작성자 어머
작성일 01.30 04:09
@엉클머리님에게 답글 어떠한 부분에서죠? 일단 가격은 저렴하다는게 api calling 말하시는 건가요? 성능이야 벤치마크 아니면 주관적인거나 다른 의견이 있을수도 있지만요

어머님의 댓글의 댓글

대댓글 작성자 어머
작성일 01.30 04:09
@엉클머리님에게 답글 성능 부분이 아니라 저렴하다는 게 어떤 기준인지 궁금해서 댓글 단 겁니다. 단순 api calling 비용 기준으로 한건가요?

오픈 웨이트 모델과 아닌 모델 가격 비교를 한다는게 쉽지 않은 문제인데 단언 하셔서 여쭤봅니다

재미나이 2.0은 api비용도 찾을수가 없네요

엉클머리님의 댓글

작성자 엉클머리
작성일 01.30 04:17
@어머 쓰레드가 꽉 차서 따로 댓글 답니다. 가격은 공식 홈페이지에 나와있습니다. 딥시크 R1은 공식적으로 1M 토큰에 $2.19 입니다. 다른 모델이 저렴하다는 저의 주장은 어머님의 말씀처럼 제가 단정한 게 아님을 밝힙니다. 공식적인 딥시크의 자료에 의해서 가격을 비교한 것입니다. 어머님께서는 오픈 모델과의 가격 비교 판단이 쉽지 않은데 제가 임의로 단언했다고 주장하시면서도, 딥시크의 오픈 모델을 사용하는데 10억이 든다는 상반되는 주장을 하시니 더 드릴 말씀이 없습니다. 딥시크 R1의 가격은 공식 자료를 참조했습니다.

게다가 딥시크 R1의 단점으로 정확성은 4o보다 못하다는 벤치마킹 결과가 여럿 있습니다. 일각에서는 정확성이 17%로 벤치마킹 되기도 했습니다.

어머님의 댓글의 댓글

대댓글 작성자 어머
작성일 01.30 04:34
@엉클머리님에게 답글 단순 API 비용만으로 저렴하다고 하기가 어려운게 딥식은 오픈웨이트 모델입니다. 제가 초기비용 10억 최소비용이긴 하지만 투자하면 더이상 API 비용은 들지않고 전기세만 내면 되는거죠. 개인이야 10억이상을 뽑기는 힘들지만 중견기업만 해도 10억은 금방입니다

제가 이런 댓글을 다는 이유는 저는 오픈소스 신봉자고 인공지능은 한 기업이 소유할게 아닌 모든 인류에게 공유되야 한다고 생각하는 미국 시골에서 인공지능 연구하는 멋도 아닌 연구자가 의견 내봤습니다

딥씩이 중국이던 아니던 모델 가중치를 공개했다는 점에서 저는 칭찬하고 싶고 그 방향으로 가야 한다고 생각합니다. 저는 라마와 qwen도 너무 좋아하는 사람입니다

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.30 04:55
@어머님에게 답글 오픈 모델이라고 가격이 없는 것은 아닙니다. 공식적으로 확인 가능한 가격표가 있는데, 단순히 오픈 모델이라서 직접 서버를 구축 할 수 있다는 이유만으로 가격 비교하는 판단이 어렵다는 주장은 납득하지 못합니다. 모델을 사용하기 위해서는 직접 구축하거나 또는 서비스를 이용해야하는데, 서비스에는 엄연히 가격표가 붙어있습니다. 그러므로 가격 비교가 어려운 것은 아닙니다. 직접 구축에 10억이 든다는 내용과, 그 10억도 중견기업이라면 금방한다는 말씀도 동의할 수 없습니다. 단, 이 부분은 개인적 경험에 의한 것임을 밝혀둡니다.

오픈 모델이므로 인류에게 공유되는 이유로 인해 상업 모델과 가격비교가 어렵고 판단하기 어렵다는 어머님의 주장에 대해서는 잘 알겠습니다. 그러나 llama가 그 정신에 입각하여 만들어지는 모델이며, r1 보다도 (1/10가격 미만) 훨씬 저렴한 모델입니다.

또, 어머님이 위에서 작성하신 댓글 중에서 gemini 2.0 가격은 아직 미발표입니다. 제가 미발표된 모델의 예상 가격과 딥시크 R1의 가격을 비교한 것은 맞습니다. 이 부분은 양해구합니다. 플래시는 저렴한 가격으로 나온 모델입니다. 현재에도 가장 저렴한 모델 중 하나입니다. 이번주나 2월 초에 발표될 것으로 예상되는 모델이고, AI를 활용하는 시스템을 구축한다면 충분히 1.5의 가격을 토대로 비교할 수 있다고 여겨집니다.

딥시크는 다른 모델을 배꼈다는 강력한 증거가 미국 정부에 의해서 언급됩니다. 다른 모델의 답변을 복사하여 학습한 결과를 상업화 하는 것은 칭찬할 일이 아니며, 오히려 오픈 생태계에 안좋은 영향을 끼쳤다고 봅니다. 어머님과 저와의 이 견해 차이는 분명히 하겠습니다.

어머님의 댓글의 댓글

대댓글 작성자 어머
작성일 01.30 05:01
@엉클머리님에게 답글 댓글에서 저렴하다는게 사용자에게 저렴한건지 개발하는 기업에서 저렴한건지를 혼동해 쓰시는거 같습니다.

라마는 근본적으로 공짜라 저렴이라는게 어울리지 않습니다. 개발자 입장에서 본다면 상대적으로 저렴한 모델이긴 합니다만

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.30 05:03
@어머님에게 답글 어머님께서 API call 이라고 말씀하셨습니다. API는 주로 개발에 이용되며, 그러므로 어머님의 말씀은 개발자 관점에서 언급하신 것으로 생각합니다. 그러한 맥락에서 답변을 드렸습니다.

어머님의 댓글의 댓글

대댓글 작성자 어머
작성일 01.30 05:03
@엉클머리님에게 답글 개발자 관점이면 라마가 왜 저렴한가요? 가격이 없는데. 공짜죠. 설마 돌리는 gpu가격까지 들어가는 건가요? 뭔가 가격 비교를 하시려면 동일한 기준을 가지고 하셔야 합니다.
위에는 api call로 비교하고 라마ㅏㄱ 저렴하다는데 라마는 api call 비용이 없습니다

어머님의 댓글의 댓글

대댓글 작성자 어머
작성일 01.30 05:06
@엉클머리님에게 답글 정리해서 말씀 드리면 비용은 두가지 측면이 있습니다.  개발 비용과 사용 비용이죠

님이 사용 비용을 말하는 거라면 오픈소스 모델과 아닌 모델을 1:1로 비교할수가 없습니다. 오픈소스라는 장점이 어마어마하니까요.

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.30 05:05
@어머님에게 답글 위에 왜 자렴하냐고 따지신 질문에 대해서는, 어머님께서 이미 스스로 답변을 하셨습니다. 딥시크는 10억이 들 것이라는 주장을 하셨듯 llama도 구축 비용이 들고, 구축하지 않는다면 서비스를 이용해야합니다. 여러 서비스 업체가 있고, 그 서비스 비용은 찾아보시면 상당히 저렴하다는 것을 확인 할 수 있습니다.

어머님의 댓글의 댓글

대댓글 작성자 어머
작성일 01.30 05:07
@엉클머리님에게 답글 라마는 당연히 저렴하죠. 모델이 오픈소스니 그냥 자기 서버에 올려서 돈 받는거겠죠

저도 딥시크 제 서버에 올려서 공짜로 풀면 딥시크도 공짜인가요?

칼쓰뎅님의 댓글의 댓글

대댓글 작성자 칼쓰뎅
작성일 01.30 12:14
@엉클머리님에게 답글 메타에서 직접 llama서비스 안하지않나요? api호출비용 측정하긴 애매할듯하네요

엉클머리님의 댓글

작성자 엉클머리
작성일 01.30 05:08
글타래가 길어져서 답글을 달 수 없어, 인용을 합니다.

> 정리해서 말씀 드리면 비용은 두가지 측면이 있습니다.  개발 비용과 사용 비용이죠
> 님이 사용 비용을 말하는 거라면 오픈소스 모델과 아닌 모델을 1:1로 비교할수가 없습니다. 오픈소스라는 장점이 어마어마하니까요.

> 라마는 당연히 저렴하죠. 모델이 오픈소스니 그냥 자기 서버에 올려서 돈 받는거겠죠
> 저도 딥시크 제 서버에 올려서 공짜로 풀면 딥시크도 공짜인가요?

무슨 말씀을 하시는지 요점을 모르겠습니다. 좀 더 명확히 설명해보십시오.

어머님의 댓글의 댓글

대댓글 작성자 어머
작성일 01.30 05:09
@엉클머리님에게 답글 그러니 재미나이와 딥시크를 어떻게 비교해 재미나이가 더 저렴하다고 할수 있는지가 궁금하네요. 단순 api call로만 비교하기에는 딥시크는 오픈소스 모델입니다

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.30 05:12
@어머님에게 답글 주장하시는 오픈소스 모델은 가격비교를 하면 안되는겁니까? 무슨말씀인지 잘 모르습니다. 이미 수 차례 공식적인 가격표가 있다고 말씀드렸습니다. 단순히 가격표만으로는, 딥시크는 오픈모델이므로 단순히 가격표만으로는 비교가 어렵다는 주장이신 거 같은데, 그 근거로서 인류에 공유되어야 한며 어머님께서 좋아하기 때문이라는 말씀만 하셨기 때문입니다.

어머님의 댓글의 댓글

대댓글 작성자 어머
작성일 01.30 05:11
@엉클머리님에게 답글

제일 첫 대댓글 보세요.

오픈 소스와 아닌 모델은 단순 api call 가격으로 누가 저렴한지 알수 없다라고 했더니 님이 동의할수 없다면서요. 그럼 어떤 기준으로 저렴하다고 했냐고 묻는건데 그건 대답을 못하시고 이상하게 뺑뺑 도시네요.

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.30 05:14
@어머님에게 답글 죄송합니다. 더이상 어머님의 말씀에 집중해서 대화를 나눠드리기 어렵겠습니다. 이만 하겠습니다. 이미 충분히 말씀 드렸고, 앞으로도 어머님과 저와는 대화를 나누기 어렵겠습니다.

어머님의 댓글의 댓글

대댓글 작성자 어머
작성일 01.30 05:15
@엉클머리님에게 답글 혹시 클리앙하시나요? 다시는 언어가 클리앙 모 유저랑 매우 비슷하신데 아니시라면 사과드립니다

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.30 05:17
@어머님에게 답글 어머님. 왜 저에게 클리앙을 하는지 여쭈십니까? 언어가 모 유저와 비슷하다고 하는데, 모 유저가 누군지는 궁금하지 않습니다. 저와는 더이상 대화가 어렵겠습니다. 어머님께서 인류를 생각하시고, qwen을 좋아하는 마음은 잘 알겠습니다.

어머님의 댓글의 댓글

대댓글 작성자 어머
작성일 01.30 05:18
@엉클머리님에게 답글 클리앙에 핫한 분이 계신데 그분이랑 말투가 매우 비슷해서 여쭤봤습니다. 아니라면 죄송합니다 ㅎㅎ
저와는 대화가 어렵겠습니다 이런 표현 처음으로 그분이 쓰는거 봤는데 오늘 또 봐서 그냥 노파심에 물어만 봤을 뿐입니다 ㅎㅎ

어머님의 댓글의 댓글

대댓글 작성자 어머
작성일 01.30 05:41
@엉클머리님에게 답글 전 qwen이 아니라 모든 오픈 소스를 좋아합니다 ㅎㅎ

엉클머리님의 댓글

작성자 엉클머리
작성일 01.30 05:21
> 클리앙에 핫한 분이 계신데 그분이랑 말투가 매우 비슷해서 여쭤봤습니다. 아니라면 죄송합니다 ㅎㅎ
> 저와는 대화가 어렵겠습니다 이런 표현 처음으로 그분이 쓰는거 봤는데 오늘 또 봐서 그냥 노파심에 물어만 봤을 뿐입니다 ㅎㅎ

쓰레드가 길어져서, "다시는 언어"라고 언급한 부분이 말투를 말씀하시는 거라면, 가능하면 개인적인 감정이 없도록 가장 정중한 말투를 사용했습니다.

어머님은 저와 대화가 어렵다는 것은, 정중하게 앞으로의 대화를 거절드리는 것입니다. 어머님께서 여러번 언급하셔서 부득이 직접적으로 더이상 대화를 거절한다고 말씀드립니다.

다모앙 초기 가입자인 만큼, 클리앙을 사용했으며, 핫한 유저인지는 모르겠습니다. 거의 주식한당에서만 활동했습니다. 클리앙에서도 지금의 다모앙에서처럼 떳떳하게 생활했습니다. 그리고 저는 어머님이 클리앙을 사용했는지는 관심이 없습니다. 느닷없이 다른 핫한 사용자를 언급하는 게 의아합니다. 유명한 게 아니라 핫하다는 표현은 보통 커뮤니티에서 어떤 잘못을 저지른 사용자라는 맥락이고, 갑자기 저에게 언급하는 것은 그 맥락을 저에게 씌우려는 노력으로 오해될 수 있습니다. 이 댓글을 읽는 미래의 사용자에게 저에대한 핫한 이용자의 이미지를 저에게 씌울 수 있게됩니다. 그 게 저이든 아니든 상관 없습니다.

오랜 세월동안 커뮤니티에서는 그렇게 공격적인 이용자들이 다른 사람들을 공격할 때 악용하는 수법이기 때문에, 어머님이 오해받으실까봐 염려됩니다. 자칫 다른 사람의 과오를 거들먹거려 약점을 잡으려는 뉘앙스로 읽혀질 수 있습니다. ;-)

어머님의 댓글의 댓글

대댓글 작성자 어머
작성일 01.30 05:41
@엉클머리님에게 답글 일단 사과 드립니다. 말투가 특이해서 사실 인터넷 생활 하면서 더이상 우리와 함께 할수 없습니다는 딱 두번 들어봐서요. 오늘하고 클리앙 그 분 한테요.

즐 인공지능 하시기 바랍니다 ㅎㅎ 모델이 쏟아져 나와 즐겁네요

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.30 05:43
@어머님에게 답글 죄송합니다만, 저는 어머님에 대한 기억이 없습니다. 앞으로도 없을 것입니다.

어머님의 댓글의 댓글

대댓글 작성자 어머
작성일 01.30 05:44
@엉클머리님에게 답글 그건 알아서 하시면 되지않을까요 저도 알아서 할거고 저는 님이 강하게 기억에 남네요

엉클머리님의 댓글의 댓글

대댓글 작성자 엉클머리
작성일 01.30 05:49
@어머님에게 답글 기억에 강하게 남은 저에게 의도적으로 이러한 댓글을 다셨다고 생각이 드니, 저는 어머님이 저에게 위험한 분이라는 생각이 듭니다. 차단하겠습니다.

어머님의 댓글의 댓글

대댓글 작성자 어머
작성일 01.30 05:49
@엉클머리님에게 답글 감사합니다

엉클머리님의 댓글

작성자 엉클머리
작성일 01.30 12:27
@칼쓰뎅 쓰레드가 길어서 대꾸드릴 수 없기에 따로 답글드립니다.

> 메타에서 직접 lllama서비스 안하지않나요? api호출비용 측정하긴 애매할듯하네요

메타에서 llama를 서비스 하지 않습니다. 주체가 직접 서비스하지 않는다고 해당 모델의 사용 비용 측정이 애매하다는 말씀은 의아합니다. 왜 그렇게 생각하시는지 궁금합니다. 왜냐하면 주체 급의 공급자도 있고, 또 형성된 시장가도 있기 때문입니다. 라마가 오픈 모델의 문을 열었을 때에 라마를 서비스하기 위해 전용 반도체까지 설계하여 설비투자를 하고있는 회사들도 있었고, 한 때 라마 서비스의 가격 경쟁이 벌어졌었습니다. 칼쓰뎅님 댓글 있으시면 여기에 부탁합니다.

칼쓰뎅님의 댓글의 댓글

대댓글 작성자 칼쓰뎅
작성일 01.30 23:03
@엉클머리님에게 답글 아 라마의 api가격은 누가 정해놓은게 아니라.. 서비스 제공자가 맘대로 할수있기에 정확한 비교가 애매하다고 표현했어요.
현재 판매중인 api가격들도 사실 숨겨진 가격들이 있는거 아닌가 싶어서 엄밀히 비교가 가능한가? 하는 생각도 있습니다.

예를 들자면 구글의 경우 상당히 저렴한것으로 압니다.
뒷배가 든든하니... 좀 손해보고서라도 싸게 파는거 아닌가 하는거죠.
딥싴도 마찬가지고요. (중국업체들은 특히나 중국정부의 돈이 들어가있을테니 ㄷㄷㄷ)

뭐 소비자는 사실 저렴하고 좋은게 있음 장땡이긴합니다 ㅎㅎ
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색