BMS, BUS, արդյունաբերական, գործիքային մալուխի համար։

Գարնանային փառատոնի ավարտին DeepSeek-ի շուրջ ոգևորությունը մնում է ուժեղ։ Վերջերս կայացած տոնը ընդգծեց տեխնոլոգիական արդյունաբերության մեջ մրցակցության զգալի զգացում, շատերը քննարկում և վերլուծում են այս «լոքո»-ն։ Սիլիկոնյան հովիտը ապրում է աննախադեպ ճգնաժամ. բաց կոդի կողմնակիցները կրկին արտահայտում են իրենց կարծիքը, և նույնիսկ OpenAI-ը վերագնահատում է, թե արդյոք իր փակ կոդի ռազմավարությունը լավագույն ընտրությունն էր։ Հաշվողական ծախսերի ցածր նոր մոդելը շղթայական ռեակցիա է առաջացրել չիպերի հսկաների շրջանում, ինչպիսին է Nvidia-ն, ինչը հանգեցրել է ԱՄՆ ֆոնդային շուկայի պատմության մեջ մեկօրյա շուկայական արժեքի ռեկորդային կորուստների, մինչդեռ պետական մարմինները հետաքննում են DeepSeek-ի կողմից օգտագործվող չիպերի համապատասխանությունը։ DeepSeek-ի վերաբերյալ արտասահմանում, երկրի ներսում խառը ակնարկների ֆոնին, այն արտակարգ աճ է ապրում։ R1 մոդելի թողարկումից հետո դրան կից հավելվածը գրանցել է երթևեկության աճ, ինչը ցույց է տալիս, որ կիրառական ոլորտների աճը կխթանի արհեստական ինտելեկտի ընդհանուր էկոհամակարգը։ Դրական կողմն այն է, որ DeepSeek-ը կընդլայնի կիրառական հնարավորությունները, ինչը ենթադրում է, որ ChatGPT-ին հույսը դնելը ապագայում այդքան թանկ չի լինի։ Այս տեղաշարժը արտացոլվել է OpenAI-ի վերջին գործունեության մեջ, այդ թվում՝ o3-mini անվամբ դատողական մոդելի տրամադրումը DeepSeek R1-ին ի պատասխան՝ անվճար օգտատերերի համար, ինչպես նաև հետագա թարմացումները, որոնք o3-mini-ի մտածողության շղթան դարձրին հանրային։ Արտասահմանյան շատ օգտատերեր երախտագիտություն հայտնեցին DeepSeek-ին այս զարգացումների համար, չնայած այս մտածողության շղթան ծառայում է որպես ամփոփում։
Լավատեսորեն, ակնհայտ է, որ DeepSeek-ը միավորում է ներքին խաղացողներին: Կենտրոնանալով ուսուցման ծախսերի կրճատման վրա՝ տարբեր վերին հոսանքի չիպերի արտադրողներ, միջանկյալ ամպային մատակարարներ և բազմաթիվ ստարտափներ ակտիվորեն միանում են էկոհամակարգին՝ բարձրացնելով DeepSeek մոդելի օգտագործման ծախսարդյունավետությունը: DeepSeek-ի հոդվածների համաձայն՝ V3 մոդելի ամբողջական ուսուցումը պահանջում է ընդամենը 2.788 միլիոն H800 GPU ժամ, և ուսուցման գործընթացը խիստ կայուն է: MoE (Mixture of Experts) ճարտարապետությունը կարևոր է նախնական ուսուցման ծախսերը տասն անգամ կրճատելու համար՝ համեմատած 405 միլիարդ պարամետրերով Llama 3-ի հետ: Ներկայումս V3-ը առաջին հրապարակայնորեն ճանաչված մոդելն է, որը ցուցադրում է MoE-ի այդքան բարձր նոսրություն: Բացի այդ, MLA-ն (Multi Layer Attention) աշխատում է սիներգիստորեն, մասնավորապես դատողության ասպեկտներում: «Որքան նոսր է MoE-ն, այնքան մեծ է խմբաքանակի չափը, որը անհրաժեշտ է դատողության ընթացքում՝ հաշվողական հզորությունը լիովին օգտագործելու համար, որտեղ KVCache-ի չափը հիմնական սահմանափակող գործոնն է. MLA-ն զգալիորեն նվազեցնում է KVCache-ի չափը», - նշել է Chuanjing Technology-ի հետազոտողը AI Technology Review-ի համար վերլուծության մեջ: Ընդհանուր առմամբ, DeepSeek-ի հաջողությունը կայանում է ոչ թե միայն մեկի, այլ տարբեր տեխնոլոգիաների համադրության մեջ։ Արդյունաբերության մասնագետները գովաբանում են DeepSeek թիմի ինժեներական կարողությունները՝ նշելով նրանց գերազանցությունը զուգահեռ ուսուցման և օպերատորների օպտիմալացման գործում, որոնք հասել են առաջընթաց արդյունքների՝ կատարելագործելով յուրաքանչյուր մանրուք։ DeepSeek-ի բաց կոդով մոտեցումը հետագայում խթանում է մեծ մոդելների ընդհանուր զարգացումը, և կանխատեսվում է, որ եթե նմանատիպ մոդելները ընդլայնվեն պատկերների, տեսանյութերի և այլնի տեսքով, դա զգալիորեն կխթանի պահանջարկը ամբողջ ոլորտում։
Հնարավորություններ երրորդ կողմի դատողությունների ծառայությունների համար
Տվյալները ցույց են տալիս, որ թողարկումից ի վեր DeepSeek-ը ընդամենը 21 օրվա ընթացքում կուտակել է 22.15 միլիոն օրական ակտիվ օգտատեր (DAU), կազմելով ChatGPT-ի օգտատերերի բազայի 41.6%-ը և գերազանցելով Doubao-ի 16.95 միլիոն օրական ակտիվ օգտատերերի թիվը, այդպիսով դառնալով աշխարհում ամենաարագ զարգացող հավելվածը՝ 157 երկրներում/տարածաշրջաններում Apple App Store-ի առաջատարը լինելով։ Այնուամենայնիվ, մինչ օգտատերերը մեծ թվով էին հավաքվում, կիբերհաքերները անդադար հարձակվում էին DeepSeek հավելվածի վրա՝ զգալի ծանրաբեռնվածություն առաջացնելով դրա սերվերների վրա։ Արդյունաբերության վերլուծաբանները կարծում են, որ սա մասամբ պայմանավորված է նրանով, որ DeepSeek-ը քարտեր է օգտագործում ուսուցման համար, մինչդեռ բավարար հաշվողական հզորություն չունի դատողությունների համար։ Արդյունաբերության մի աղբյուր AI Technology Review-ին հայտնել է. «Սերվերի հաճախակի խնդիրները կարող են հեշտությամբ լուծվել՝ վճարներ գանձելով կամ ֆինանսավորելով ավելի շատ մեքենաներ գնելու համար. վերջին հաշվով, դա կախված է DeepSeek-ի որոշումներից»։ Սա ներկայացնում է փոխզիջում՝ կենտրոնանալով տեխնոլոգիայի և արտադրանքի վրա։ DeepSeek-ը մեծապես ապավինել է քվանտային քվանտացմանը ինքնաբավարարման համար՝ ստանալով քիչ արտաքին ֆինանսավորում, ինչը հանգեցրել է համեմատաբար ցածր դրամական հոսքի ճնշման և ավելի մաքուր տեխնոլոգիական միջավայրի։ Ներկայումս, վերոնշյալ խնդիրների լույսի ներքո, որոշ օգտատերեր սոցիալական ցանցերում կոչ են անում DeepSeek-ին բարձրացնել օգտագործման շեմերը կամ ներդնել վճարովի գործառույթներ՝ օգտագործողի հարմարավետությունը բարձրացնելու համար: Բացի այդ, մշակողները սկսել են օգտագործել պաշտոնական API-ները կամ երրորդ կողմի API-ները օպտիմալացման համար: Այնուամենայնիվ, DeepSeek-ի բաց հարթակը վերջերս հայտարարել է. «Ընթացիկ սերվերի ռեսուրսները սակավ են, և API ծառայության լիցքավորումները կասեցված են»:
Սա անկասկած ավելի շատ հնարավորություններ է բացում արհեստական բանականության ենթակառուցվածքների ոլորտում երրորդ կողմի մատակարարների համար: Վերջերս բազմաթիվ տեղական և միջազգային ամպային հսկաներ թողարկել են DeepSeek-ի մոդելային API-ները. արտասահմանյան հսկաներ Microsoft-ը և Amazon-ը առաջիններից էին, որոնք միացան հունվարի վերջին: Տեղական առաջատար Huawei Cloud-ը առաջին քայլն արեց՝ փետրվարի 1-ին թողարկելով DeepSeek R1 և V3 դատողական ծառայությունները Silicon-ի վրա հիմնված Flow-ի հետ համատեղ: AI Technology Review-ի հաղորդագրությունները ցույց են տալիս, որ Silicon-ի վրա հիմնված Flow-ի ծառայությունները նկատել են օգտատերերի հոսք, որն արդյունավետորեն «փլուզել» է հարթակը: Երեք խոշոր տեխնոլոգիական ընկերությունները՝ BAT (Baidu, Alibaba, Tencent) և ByteDance-ը, նույնպես փետրվարի 3-ից սկսած թողարկել են ցածր գնով, սահմանափակ ժամանակով առաջարկներ, որոնք հիշեցնում են անցյալ տարվա ամպային մատակարարների գնային պատերազմները, որոնք սկսվել էին DeepSeek-ի V2 մոդելի թողարկմամբ, որտեղ DeepSeek-ը սկսեցին անվանել «գների մսագործ»: Ամպային մատակարարների խելահեղ գործողությունները արտացոլում են Microsoft Azure-ի և OpenAI-ի միջև նախկինում եղած ամուր կապերը, որտեղ 2019 թվականին Microsoft-ը զգալի 1 միլիարդ դոլարի ներդրում կատարեց OpenAI-ում և օգուտներ քաղեց ChatGPT-ի 2023 թվականին թողարկումից հետո: Այնուամենայնիվ, այս սերտ հարաբերությունները սկսեցին քայքայվել Meta-ի կողմից Llama-ի բաց կոդով թողարկումից հետո, ինչը թույլ տվեց Microsoft Azure էկոհամակարգից դուրս գտնվող այլ մատակարարներին մրցակցել իրենց խոշոր մոդելների հետ: Այս դեպքում DeepSeek-ը ոչ միայն գերազանցել է ChatGPT-ին արտադրանքի պահանջարկի առումով, այլև o1 թողարկումից հետո ներկայացրել է բաց կոդով մոդելներ, նման Llama-ի կողմից GPT-3-ի վերածննդի շուրջ առաջացած ոգևորությանը:
Իրականում, ամպային մատակարարները նաև դիրքավորվում են որպես արհեստական բանականության կիրառությունների երթևեկության դարպասներ, ինչը նշանակում է, որ մշակողների հետ կապերի խորացումը հանգեցնում է կանխարգելիչ առավելությունների: Հաշվետվությունները ցույց են տալիս, որ մոդելի թողարկման օրը Baidu Smart Cloud-ն ուներ ավելի քան 15,000 հաճախորդ, որոնք օգտագործում էին DeepSeek մոդելը Qianfan հարթակի միջոցով: Բացի այդ, մի քանի փոքր ընկերություններ առաջարկում են լուծումներ, այդ թվում՝ սիլիցիումային Flow-ը, Luchen Technology-ն, Chuanjing Technology-ն և տարբեր AI Infra մատակարարներ, որոնք սկսել են աջակցել DeepSeek մոդելներին: AI Technology Review-ը պարզել է, որ DeepSeek-ի տեղայնացված տեղակայման համար ներկայիս օպտիմալացման հնարավորությունները հիմնականում գոյություն ունեն երկու ոլորտներում. մեկը MoE մոդելի նոսրության բնութագրերի օպտիմալացումն է՝ օգտագործելով խառը դատողության մոտեցում՝ 671 միլիարդ պարամետրանոց MoE մոդելը տեղայնորեն տեղակայելու համար՝ օգտագործելով հիբրիդային GPU/CPU եզրակացություն: Բացի այդ, MLA-ի օպտիմալացումը կենսական նշանակություն ունի: Այնուամենայնիվ, DeepSeek-ի երկու մոդելները դեռևս բախվում են որոշ մարտահրավերների տեղակայման օպտիմալացման հարցում: «Մոդելի չափի և բազմաթիվ պարամետրերի պատճառով օպտիմալացումը իսկապես բարդ է, մասնավորապես տեղական տեղակայումների համար, որտեղ արդյունավետության և արժեքի միջև օպտիմալ հավասարակշռության հասնելը դժվար կլինի», - նշել է Chuanjing Technology-ի հետազոտողը: Ամենակարևոր խոչընդոտը հիշողության ծավալի սահմանափակումների հաղթահարումն է: «Մենք ընդունում ենք տարասեռ համագործակցության մոտեցում՝ պրոցեսորները և այլ հաշվողական ռեսուրսները լիարժեք օգտագործելու համար, նոսր MoE մատրիցի միայն չհամօգտագործվող մասերը տեղադրելով CPU/DRAM-ի վրա՝ բարձր արդյունավետությամբ CPU օպերատորների միջոցով մշակման համար, մինչդեռ խիտ մասերը մնում են GPU-ի վրա», - հետագայում բացատրեց նա: Հաղորդագրությունները ցույց են տալիս, որ Chuanjing-ի բաց կոդով KTransformers շրջանակը հիմնականում տարբեր ռազմավարություններ և օպերատորներ է ներմուծում Transformers-ի բնօրինակ իրականացման մեջ՝ ձևանմուշի միջոցով զգալիորեն բարելավելով եզրակացության արագությունը՝ օգտագործելով CUDAGraph-ի նման մեթոդներ: DeepSeek-ը հնարավորություններ է ստեղծել այս ստարտափների համար, քանի որ աճի առավելությունները դառնում են ակնհայտ. շատ ընկերություններ հայտնել են հաճախորդների զգալի աճի մասին DeepSeek API-ի գործարկումից հետո՝ ստանալով հարցումներ նախորդ հաճախորդներից, որոնք փնտրում էին օպտիմալացումներ: Արդյունաբերության մասնագետները նշել են. «Անցյալում որոշակիորեն հաստատված հաճախորդների խմբերը հաճախ կապված էին խոշոր ընկերությունների ստանդարտացված ծառայությունների հետ՝ սերտորեն կապված իրենց մասշտաբի գնային առավելություններով։ Սակայն, Գարնանային փառատոնից առաջ DeepSeek-R1/V3-ի տեղակայումն ավարտելուց հետո, մենք հանկարծակի համագործակցության խնդրանքներ ստացանք մի քանի հայտնի հաճախորդներից, և նույնիսկ նախկինում անգործունակ հաճախորդները սկսեցին կապ հաստատել մեր DeepSeek ծառայությունները ներկայացնելու համար»։ Ներկայումս, կարծես, DeepSeek-ը մոդելի եզրակացության կատարողականը դարձնում է ավելի կարևոր, և խոշոր մոդելների ավելի լայն կիրառմամբ սա կշարունակի զգալիորեն ազդել արհեստական բանականության ենթակառուցվածքների ոլորտի զարգացման վրա։ Եթե DeepSeek մակարդակի մոդելը կարողանա տեղակայվել ցածր գնով, դա մեծապես կնպաստի կառավարության և ձեռնարկությունների թվային վերափոխման ջանքերին։ Այնուամենայնիվ, մարտահրավերները շարունակվում են, քանի որ որոշ հաճախորդներ կարող են բարձր ակնկալիքներ ունենալ մեծ մոդելի հնարավորությունների վերաբերյալ, ինչը ավելի ակնհայտ է դարձնում, որ կատարողականի և ծախսերի հավասարակշռումը կենսական նշանակություն ունի գործնական տեղակայման մեջ։
Գնահատելու համար, թե արդյոք DeepSeek-ը ավելի լավն է, քան ChatGPT-ը, կարևոր է հասկանալ դրանց հիմնական տարբերությունները, ուժեղ կողմերը և օգտագործման դեպքերը: Ահա համապարփակ համեմատություն.
Հատկանիշ/տեսանկյուն | Խորը որոնում | ChatGPT |
---|---|---|
Սեփականություն | Մշակվել է չինական ընկերության կողմից | Մշակված է OpenAI-ի կողմից |
Աղբյուրի մոդել | Բաց կոդով | Սեփականատիրական |
Արժեքը | Անվճար օգտագործման համար; ավելի էժան API մուտքի տարբերակներ | Բաժանորդագրության կամ օգտագործման համար վճարովի գնագոյացում |
Անհատականացում | Բարձր հարմարեցվողականություն, որը թույլ է տալիս օգտատերերին փոփոխել և կառուցել այն | Սահմանափակ հարմարեցում հասանելի է |
Արդյունավետություն որոշակի առաջադրանքների կատարման գործում | Գերազանց է որոշակի ոլորտներում, ինչպիսիք են տվյալների վերլուծությունը և տեղեկատվության որոնումը | Բազմակողմանի՝ ստեղծագործական գրավոր աշխատանքների և զրույցի բարձր արդյունավետությամբ |
Լեզվի աջակցություն | Ուժեղ ուշադրություն չինական լեզվին և մշակույթին | Լայն լեզվական աջակցություն, բայց կենտրոնացած ԱՄՆ-ի վրա |
Ուսուցման արժեքը | Ավելի ցածր ուսուցման ծախսեր, օպտիմալացված արդյունավետության համար | Ավելի բարձր վերապատրաստման ծախսեր, որոնք պահանջում են զգալի հաշվողական ռեսուրսներ |
Պատասխանի տարբերակ | Կարող է առաջարկել տարբեր պատասխաններ, հնարավոր է՝ ազդված աշխարհաքաղաքական համատեքստից | Հետևողական պատասխաններ՝ հիմնված մարզումների տվյալների վրա |
Նպատակային լսարան | Նախատեսված է ճկունություն ցանկացող մշակողների և հետազոտողների համար | Նախատեսված է զրույցի հնարավորություններ փնտրող լայն օգտատերերի համար |
Օգտագործման դեպքեր | Ավելի արդյունավետ է կոդի ստեղծման և արագ առաջադրանքների համար | Հիանալի է տեքստ ստեղծելու, հարցումներին պատասխանելու և երկխոսություններ վարելու համար |
Քննադատական հայացք «Nvidia-ի խաթարման» վերաբերյալ
Ներկայումս, Huawei-ից բացի, մի քանի տեղական չիպերի արտադրողներ, ինչպիսիք են Moore Threads-ը, Muxi-ն, Biran Technology-ն և Tianxu Zhixin-ը, նույնպես հարմարվում են DeepSeek-ի երկու մոդելներին: Չիպերի արտադրողներից մեկը AI Technology Review-ին ասել է. «DeepSeek-ի կառուցվածքը ցուցադրում է նորարարություն, սակայն այն մնում է LLM: Մեր հարմարվողականությունը DeepSeek-ին հիմնականում կենտրոնացած է դատողական կիրառությունների վրա, ինչը տեխնիկական իրականացումը դարձնում է բավականին պարզ և արագ»: Այնուամենայնիվ, Էներգետիկայի նախարարության մոտեցումը պահանջում է ավելի բարձր պահանջներ պահեստավորման և բաշխման առումով, զուգորդված տեղական չիպերի հետ տեղակայման ժամանակ համատեղելիության ապահովման հետ, ներկայացնելով բազմաթիվ ինժեներական մարտահրավերներ, որոնք լուծման կարիք ունեն հարմարեցման ընթացքում: «Ներկայումս տեղական հաշվողական հզորությունը չի համապատասխանում Nvidia-ին օգտագործելիության և կայունության առումով, պահանջելով գործարանի մասնակցություն ծրագրային միջավայրի կարգավորման, խնդիրների լուծման և հիմնարար կատարողականի օպտիմալացման համար», - ասել է ոլորտի մասնագետը՝ հիմնվելով գործնական փորձի վրա: Միաժամանակ, «DeepSeek R1-ի մեծ պարամետրերի մասշտաբի պատճառով տեղական հաշվողական հզորությունը պահանջում է ավելի շատ հանգույցներ զուգահեռացման համար: Բացի այդ, տեղական սարքավորումների տեխնիկական բնութագրերը դեռևս որոշ չափով հետ են մնում. օրինակ, Huawei 910B-ն ներկայումս չի կարող աջակցել DeepSeek-ի կողմից ներկայացված FP8 եզրակացությանը»: DeepSeek V3 մոդելի կարևորագույն առանձնահատկություններից մեկը FP8 խառը ճշգրտության մարզման շրջանակի ներդրումն է, որը արդյունավետորեն ստուգվել է չափազանց մեծ մոդելի վրա, ինչը նշանակալի նվաճում է: Նախկինում Microsoft-ի և Nvidia-ի նման խոշոր խաղացողներ առաջարկել են նմանատիպ աշխատանքներ, սակայն ոլորտում կասկածներ կան դրա իրագործելիության վերաբերյալ: Հասկանալի է, որ INT8-ի համեմատ FP8-ի հիմնական առավելությունն այն է, որ մարզումից հետո քվանտացումը կարող է հասնել գրեթե անկորուստ ճշգրտության՝ միաժամանակ զգալիորեն բարելավելով եզրակացության արագությունը: FP16-ի համեմատ FP8-ը կարող է մինչև երկու անգամ արագացնել Nvidia-ի H20-ը և ավելի քան 1.5 անգամ արագացնել H100-ը: Հատկանշական է, որ ներքին հաշվողական հզորության և ներքին մոդելների միտման շուրջ քննարկումների թափ հավաքելուն զուգընթաց, ավելի ու ավելի տարածված են դառնում ենթադրությունները այն մասին, թե արդյոք Nvidia-ն կարող է խափանվել, և արդյոք CUDA խրամատը կարող է շրջանցվել: Անհերքելի փաստ է, որ DeepSeek-ը իսկապես հանգեցրել է Nvidia-ի շուկայական արժեքի զգալի անկման, սակայն այս տեղաշարժը հարցեր է առաջացնում Nvidia-ի բարձրակարգ հաշվողական հզորության ամբողջականության վերաբերյալ: Կապիտալի վրա հիմնված հաշվողական կուտակման վերաբերյալ նախկինում ընդունված պատմությունները կասկածի տակ են առնվում, սակայն Nvidia-ի համար դեռևս դժվար է լիովին փոխարինել այն մարզման սցենարներում: DeepSeek-ի կողմից CUDA-ի խորը օգտագործման վերլուծությունը ցույց է տալիս, որ ճկունությունը, ինչպիսիք են SM-ի օգտագործումը հաղորդակցության համար կամ ցանցային քարտերի անմիջական մանիպուլյացիան, հնարավոր չէ հարմարեցնել սովորական GPU-ների համար: Արդյունաբերության տեսակետները ընդգծում են, որ Nvidia-ի խրամատը ներառում է ամբողջ CUDA էկոհամակարգը, այլ ոչ թե միայն CUDA-ն, և DeepSeek-ի կողմից օգտագործվող PTX (Parallel Thread Execution) հրահանգները դեռևս CUDA էկոհամակարգի մաս են կազմում: «Կարճաժամկետ հեռանկարում Nvidia-ի հաշվողական հզորությունը չի կարող շրջանցվել. սա հատկապես ակնհայտ է մարզման ժամանակ. սակայն, ներքին քարտերի տեղակայումը դատողության համար համեմատաբար ավելի հեշտ կլինի, ուստի առաջընթացը, հավանաբար, ավելի արագ կլինի: Ներքին քարտերի հարմարեցումը հիմնականում կենտրոնանում է եզրակացության վրա. ոչ ոք դեռևս չի կարողացել DeepSeek-ի աշխատանքի մոդել մարզել ներքին քարտերի վրա մասշտաբով», - AI Technology Review-ին նշել է ոլորտի վերլուծաբանը: Ընդհանուր առմամբ, եզրակացության տեսանկյունից, հանգամանքները խրախուսական են ներքին մեծ մոդելային չիպերի համար: Ներքին չիպերի արտադրողների համար ինֆերենցիայի ոլորտում հնարավորությունները ավելի ակնհայտ են ուսուցման չափազանց բարձր պահանջների պատճառով, որոնք խոչընդոտում են մուտքը: Վերլուծաբանները պնդում են, որ պարզապես ներքին ինֆերենցիայի քարտերի օգտագործումը բավարար է. անհրաժեշտության դեպքում հնարավոր է ձեռք բերել լրացուցիչ մեքենա, մինչդեռ ուսուցման մոդելները ներկայացնում են եզակի մարտահրավերներ. մեքենաների մեծ թվի կառավարումը կարող է դառնալ ծանրաբեռնված, իսկ սխալների ավելի բարձր մակարդակը կարող է բացասաբար ազդել ուսուցման արդյունքների վրա: Ուսուցումը նաև ունի կլաստերային մասշտաբի հատուկ պահանջներ, մինչդեռ ինֆերենցիայի կլաստերների նկատմամբ պահանջները այնքան խիստ չեն, այդպիսով թեթևացնելով GPU պահանջները: Ներկայումս Nvidia-ի մեկ H20 քարտի աշխատանքը չի գերազանցում Huawei-ի կամ Cambrian-ի կատարողականությունը. դրա ուժեղ կողմը կլաստերացումն է: Հաշվողական հզորության շուկայի վրա ընդհանուր ազդեցության հիման վրա Luchen Technology-ի հիմնադիր Յու Յանգը AI Technology Review-ին տված հարցազրույցում նշել է. «DeepSeek-ը կարող է ժամանակավորապես խաթարել գերմեծ ուսուցման հաշվողական կլաստերների ստեղծումը և վարձակալությունը: Երկարաժամկետ հեռանկարում, մեծ մոդելների ուսուցման, դատողության և կիրառությունների հետ կապված ծախսերը զգալիորեն կրճատելով, շուկայի պահանջարկը, հավանաբար, կաճի: Հետևաբար, սրա վրա հիմնված արհեստական բանականության հետագա տարբերակները անընդհատ կխթանեն հաշվողական հզորության շուկայում կայուն պահանջարկը»: Բացի այդ, «DeepSeek-ի կողմից դատողության և ճշգրտման ծառայությունների նկատմամբ աճող պահանջարկն ավելի համատեղելի է ներքին հաշվողական լանդշաֆտի հետ, որտեղ տեղական կարողությունները համեմատաբար թույլ են, ինչը նպաստում է կլաստերների ստեղծումից հետո չօգտագործվող ռեսուրսների վատնման մեղմացմանը. սա ստեղծում է կենսունակ հնարավորություններ ներքին հաշվողական էկոհամակարգի տարբեր մակարդակներում արտադրողների համար»։ Luchen Technology-ն համագործակցել է Huawei Cloud-ի հետ՝ DeepSeek R1 շարքի դատողության API-ները և ամպային պատկերման ծառայությունները գործարկելու համար, որոնք հիմնված են ներքին հաշվողական հզորության վրա։ Յու Յանը լավատեսություն է հայտնել ապագայի նկատմամբ. «DeepSeek-ը վստահություն է ներշնչում ներքին արտադրության լուծումների նկատմամբ՝ խրախուսելով ապագայում ավելի մեծ ոգևորություն և ներդրումներ ներքին հաշվողական հնարավորությունների մեջ»։

Եզրակացություն
DeepSeek-ը ChatGPT-ից «ավելի լավ» լինելը կախված է օգտատիրոջ կոնկրետ կարիքներից և նպատակներից: Ճկունություն, ցածր գին և անհատականացում պահանջող առաջադրանքների համար DeepSeek-ը կարող է գերազանց լինել: Ստեղծագործական գրելու, ընդհանուր հարցումների և օգտագործողին հարմար խոսակցական ինտերֆեյսների համար ChatGPT-ն կարող է առաջատար դեր խաղալ: Յուրաքանչյուր գործիք ծառայում է տարբեր նպատակների, ուստի ընտրությունը մեծապես կախված կլինի այն համատեքստից, որում դրանք օգտագործվում են:
Կառավարման մալուխներ
Կառուցվածքային մալուխային համակարգ
Ցանց և տվյալներ, օպտիկամանրաթելային մալուխ, միացման լար, մոդուլներ, դիմային վահանակ
2024թ. ապրիլի 16-18-ը Մերձավոր Արևելքի էներգետիկայի թեմայով Դուբայում
2024թ. ապրիլի 16-18-ը Securika-ն Մոսկվայում
2024 թվականի մայիսի 9-ին Շանհայում տեղի կունենա նոր արտադրանքի և տեխնոլոգիաների մեկնարկի միջոցառում
2024 թվականի հոկտեմբերի 22-25-ը SECURITY CHINA-ում, Պեկին
2024թ. նոյեմբերի 19-20, CONNECTED WORLD, Սաուդյան Արաբիա
Հրապարակման ժամանակը. Փետրվարի 10-2025