Vir BMS, BUS, Industrieel, Instrumentasiekabel.

Soos die Lentefees tot 'n einde kom, bly die opwinding rondom DeepSeek sterk. Die onlangse vakansie het 'n beduidende gevoel van mededinging binne die tegnologiebedryf uitgelig, met baie wat hierdie "baber" bespreek en ontleed. Silicon Valley ervaar 'n ongekende gevoel van krisis: voorstanders van oopbron spreek weer hul menings uit, en selfs OpenAI herevalueer of sy geslotebronstrategie die beste keuse was. Die nuwe paradigma van laer berekeningskoste het 'n kettingreaksie onder skyfiereuse soos Nvidia veroorsaak, wat gelei het tot rekordverliese in 'n enkele dag se markwaarde in die Amerikaanse aandelemarkgeskiedenis, terwyl regeringsagentskappe die voldoening van die skyfies wat deur DeepSeek gebruik word, ondersoek. Te midde van gemengde resensies van DeepSeek oorsee, ervaar dit binnelands buitengewone groei. Na die bekendstelling van die R1-model het die geassosieerde toepassing 'n toename in verkeer gesien, wat aandui dat groei in toepassingsektore die algehele KI-ekosisteem vorentoe sal dryf. Die positiewe aspek is dat DeepSeek toepassingsmoontlikhede sal verbreed, wat daarop dui dat dit nie so duur sal wees om op ChatGPT staat te maak in die toekoms nie. Hierdie verskuiwing is weerspieël in OpenAI se onlangse aktiwiteite, insluitend die voorsiening van 'n redenasiemodel genaamd o3-mini aan gratis gebruikers in reaksie op DeepSeek R1, sowel as daaropvolgende opgraderings wat die denkwyse van o3-mini openbaar gemaak het. Baie oorsese gebruikers het hul dankbaarheid teenoor DeepSeek uitgespreek vir hierdie ontwikkelings, hoewel hierdie denkwyse as 'n opsomming dien.
Optimisties is dit duidelik dat DeepSeek plaaslike spelers verenig. Met sy fokus op die vermindering van opleidingskoste, sluit verskeie stroomop-skyfievervaardigers, intermediêre wolkverskaffers en talle opstartondernemings aktief by die ekosisteem aan, wat die koste-effektiwiteit vir die gebruik van die DeepSeek-model verbeter. Volgens DeepSeek se artikels benodig die volledige opleiding van die V3-model slegs 2,788 miljoen H800 GPU-ure, en die opleidingsproses is hoogs stabiel. Die MoE (Mixture of Experts) argitektuur is van kritieke belang om voor-opleidingskoste met 'n faktor van tien te verminder in vergelyking met Llama 3 met 405 miljard parameters. Tans is V3 die eerste publiek erkende model wat so 'n hoë ylheid in MoE demonstreer. Daarbenewens werk die MLA (Multi Layer Attention) sinergisties, veral in redenasie-aspekte. "Hoe ylder die MoE, hoe groter is die bondelgrootte wat nodig is tydens redenasie om berekeningskrag ten volle te benut, met die grootte van die KVCache as die belangrikste beperkende faktor; die MLA verminder die KVCache-grootte aansienlik," het 'n navorser van Chuanjing Technology in 'n ontleding vir AI Technology Review opgemerk. Oor die algemeen lê DeepSeek se sukses in die kombinasie van verskeie tegnologieë, nie net 'n enkele een nie. Bedryfskenners prys die DeepSeek-span se ingenieursvermoëns en let op hul uitnemendheid in parallelle opleiding en operateuroptimalisering, en behaal baanbrekende resultate deur elke detail te verfyn. DeepSeek se oopbronbenadering dryf die algehele ontwikkeling van groot modelle verder aan, en daar word verwag dat as soortgelyke modelle uitbrei na beelde, video's en meer, dit die vraag in die bedryf aansienlik sal stimuleer.
Geleenthede vir Derdeparty-redeneringsdienste
Data dui daarop dat DeepSeek sedert sy vrystelling 22,15 miljoen daaglikse aktiewe gebruikers (DAU) binne slegs 21 dae bymekaargemaak het, wat 41,6% van ChatGPT se gebruikersbasis bereik het en 16,95 miljoen daaglikse aktiewe gebruikers van Doubao oorskry het, en sodoende die vinnigste groeiende toepassing wêreldwyd geword het en die Apple App Store in 157 lande/streke oortref het. Terwyl gebruikers egter in groot getalle toegestroom het, het kuberkrakers die DeepSeek-app meedoënloos aangeval, wat aansienlike druk op sy bedieners veroorsaak het. Bedryfsontleders glo dat dit deels te wyte is aan die feit dat DeepSeek kaarte vir opleiding ontplooi terwyl hulle nie genoeg berekeningskrag vir redenasie het nie. 'n Bedryfsinsider het AI Technology Review meegedeel: "Die gereelde bedienerprobleme kan maklik opgelos word deur fooie te hef of finansiering te vra om meer masjiene aan te koop; uiteindelik hang dit af van DeepSeek se besluite." Dit bied 'n kompromie tussen die fokus op tegnologie teenoor produktisering. DeepSeek het grootliks op kwantumkwantisering staatgemaak vir selfonderhoud, nadat hulle min eksterne befondsing ontvang het, wat gelei het tot relatief lae kontantvloeidruk en 'n suiwerder tegnologiese omgewing. Tans, in die lig van die bogenoemde probleme, dring sommige gebruikers DeepSeek op sosiale media aan om gebruiksdrempels te verhoog of betaalde funksies in te stel om gebruikersgerief te verbeter. Daarbenewens het ontwikkelaars begin om die amptelike API of derdeparty-API's vir optimalisering te gebruik. DeepSeek se oop platform het egter onlangs aangekondig: "Huidige bedienerhulpbronne is skaars, en API-diensherlaai is opgeskort."
Dit bied ongetwyfeld meer geleenthede vir derdeparty-verskaffers in die KI-infrastruktuursektor. Onlangs het talle plaaslike en internasionale wolkreuse DeepSeek se model-API's bekendgestel – oorsese reuse soos Microsoft en Amazon was onder die eerstes wat einde Januarie aangesluit het. Die plaaslike leier, Huawei Cloud, het die eerste stap geneem deur DeepSeek R1- en V3-redeneringsdienste op 1 Februarie in samewerking met Silicon-gebaseerde Flow vry te stel. Verslae van AI Technology Review dui daarop dat Silicon-gebaseerde Flow se dienste 'n toestroming van gebruikers gesien het, wat die platform effektief "ineenstort". Die drie groot tegnologiemaatskappye – BAT (Baidu, Alibaba, Tencent) en ByteDance – het ook laekoste-, tydelike aanbiedinge vanaf 3 Februarie uitgereik, wat herinner aan verlede jaar se prysoorloë vir wolkverskaffers wat deur DeepSeek se V2-modelbekendstelling aangevuur is, waar DeepSeek die "prysslagter" begin noem is. Die waansinnige optrede van wolkverskaffers weerspieël die vroeëre sterk bande tussen Microsoft Azure en OpenAI, waar Microsoft in 2019 'n aansienlike belegging van $1 miljard in OpenAI gemaak het en vrugte afgewerp het na ChatGPT se bekendstelling in 2023. Hierdie noue verhouding het egter begin verswak nadat Meta Llama oopbron-geïnduseerde, wat ander verskaffers buite die Microsoft Azure-ekosisteem toegelaat het om met hul groot modelle mee te ding. In hierdie geval het DeepSeek ChatGPT nie net oortref in terme van produkhitte nie, maar ook oopbronmodelle bekendgestel na die o1-vrystelling, soortgelyk aan die opwinding rondom Llama se herlewing van GPT-3.
In werklikheid posisioneer wolkverskaffers hulself ook as verkeerspoortjies vir KI-toepassings, wat beteken dat verdiepende bande met ontwikkelaars lei tot voorkomende voordele. Verslae dui daarop dat Baidu Smart Cloud meer as 15 000 kliënte gehad het wat die DeepSeek-model via die Qianfan-platform gebruik het op die model se bekendstellingsdag. Daarbenewens bied verskeie kleiner firmas oplossings, insluitend Silicon-based Flow, Luchen Technology, Chuanjing Technology, en verskeie KI-infrastruktuurverskaffers wat ondersteuning vir DeepSeek-modelle bekendgestel het. AI Technology Review het geleer dat huidige optimaliseringsgeleenthede vir gelokaliseerde ontplooiings van DeepSeek hoofsaaklik op twee areas bestaan: een is om te optimaliseer vir die ylheidseienskappe van die MoE-model deur 'n gemengde redenasiebenadering te gebruik om die 671 miljard parameter MoE-model plaaslik te ontplooi terwyl hibriede GPU/CPU-inferensie gebruik word. Daarbenewens is die optimalisering van MLA noodsaaklik. DeepSeek se twee modelle staar egter steeds 'n paar uitdagings in die gesig in die ontplooiingsoptimalisering. "As gevolg van die model se grootte en talle parameters, is optimalisering inderdaad kompleks, veral vir plaaslike ontplooiings waar die bereiking van 'n optimale balans tussen werkverrigting en koste uitdagend sal wees," het 'n navorser van Chuanjing Technology gesê. Die grootste struikelblok lê in die oorkoming van geheuekapasiteitslimiete. "Ons volg 'n heterogene samewerkingsbenadering om SVE's en ander berekeningshulpbronne ten volle te benut, deur slegs die nie-gedeelde dele van die yl MoE-matriks op SVE/DRAM te plaas vir verwerking met behulp van hoëprestasie-SVE-operateurs, terwyl die digte gedeeltes op die GPU bly," het hy verder verduidelik. Verslae dui daarop dat Chuanjing se oopbronraamwerk KTransformers hoofsaaklik verskeie strategieë en operateurs in die oorspronklike Transformers-implementering inspuit deur middel van 'n sjabloon, wat die inferensiespoed aansienlik verbeter met behulp van metodes soos CUDAGraph. DeepSeek het geleenthede vir hierdie opstartondernemings geskep, aangesien groeivoordele duidelik word; baie firmas het merkbare kliëntegroei gerapporteer na die bekendstelling van die DeepSeek API, en navrae van vorige kliënte ontvang wat op soek is na optimalisering. Bedryfsinsiders het opgemerk: "In die verlede was ietwat gevestigde kliëntegroepe dikwels vasgevang in die gestandaardiseerde dienste van groter maatskappye, styf gebonde aan hul kostevoordele as gevolg van skaal. Nadat ons egter die ontplooiing van DeepSeek-R1/V3 voor die Lentefees voltooi het, het ons skielik samewerkingsversoeke van verskeie bekende kliënte ontvang, en selfs voorheen dormante kliënte het kontak begin maak om ons DeepSeek-dienste bekend te stel." Tans blyk dit dat DeepSeek modelinferensieprestasie toenemend krities maak, en met die breër aanvaarding van groot modelle sal dit die ontwikkeling in die KI-infrabedryf aansienlik beïnvloed. As 'n DeepSeek-vlakmodel plaaslik teen 'n lae koste ontplooi kan word, sal dit die regering en ondernemings se digitale transformasiepogings grootliks help. Uitdagings duur egter voort, aangesien sommige kliënte hoë verwagtinge rakende groot modelvermoëns kan koester, wat dit duideliker maak dat die balansering van prestasie en koste noodsaaklik word in praktiese ontplooiing.
Om te evalueer of DeepSeek beter is as ChatGPT, is dit noodsaaklik om hul belangrikste verskille, sterk punte en gebruiksgevalle te verstaan. Hier is 'n omvattende vergelyking:
Kenmerk/Aspek | DiepSeek | ChatGPT |
---|---|---|
Eienaarskap | Ontwikkel deur 'n Chinese maatskappy | Ontwikkel deur OpenAI |
Bronmodel | Oopbron | Eie |
Koste | Gratis om te gebruik; goedkoper API-toegangsopsies | Subskripsie- of betaal-per-gebruik-pryse |
Aanpassing | Hoogs aanpasbaar, wat gebruikers toelaat om dit aan te pas en daarop voort te bou | Beperkte aanpassing beskikbaar |
Prestasie in Spesifieke Take | Uitblink in sekere gebiede soos data-analise en inligtingherwinning | Veelsydig met sterk prestasie in kreatiewe skryfwerk en gesprekstake |
Taalondersteuning | Sterk fokus op Chinese taal en kultuur | Breë taalondersteuning, maar VSA-gesentreerd |
Opleidingskoste | Laer opleidingskoste, geoptimaliseer vir doeltreffendheid | Hoër opleidingskoste, wat aansienlike berekeningsbronne vereis |
Reaksievariasie | Kan verskillende reaksies bied, moontlik beïnvloed deur geopolitieke konteks | Konsekwente antwoorde gebaseer op opleidingsdata |
Teikengehoor | Gemik op ontwikkelaars en navorsers wat buigsaamheid wil hê | Gemik op algemene gebruikers wat op soek is na gespreksvermoëns |
Gebruiksgevalle | Meer doeltreffend vir kodegenerering en vinnige take | Ideaal vir die generering van teks, die beantwoording van vrae en die voer van dialoog |
'n Kritiese perspektief op "Ontwrigting van Nvidia"
Tans, benewens Huawei, pas verskeie plaaslike skyfievervaardigers soos Moore Threads, Muxi, Biran Technology en Tianxu Zhixin ook aan by DeepSeek se twee modelle. 'n Skyfievervaardiger het aan AI Technology Review gesê: "DeepSeek se struktuur demonstreer innovasie, maar dit bly 'n LLM. Ons aanpassing by DeepSeek is hoofsaaklik gefokus op redenasie-toepassings, wat tegniese implementering redelik eenvoudig en vinnig maak." Die MoE-benadering vereis egter hoër eise in terme van berging en verspreiding, tesame met die versekering van versoenbaarheid wanneer dit met plaaslike skyfies ontplooi word, wat talle ingenieursuitdagings bied wat tydens aanpassing opgelos moet word. "Tans ewenaar plaaslike berekeningskrag nie Nvidia in bruikbaarheid en stabiliteit nie, wat oorspronklike fabrieksdeelname vereis vir sagteware-omgewingopstelling, probleemoplossing en fundamentele prestasie-optimalisering," het 'n bedryfspraktisyn gesê op grond van praktiese ervaring. Terselfdertyd, "As gevolg van die groot parameterskaal van DeepSeek R1, noodsaak plaaslike berekeningskrag meer nodusse vir parallellisering. Daarbenewens is die plaaslike hardewarespesifikasies steeds ietwat agter; byvoorbeeld, die Huawei 910B kan tans nie die FP8-inferensie wat deur DeepSeek ingestel is, ondersteun nie." Een van die hoogtepunte van die DeepSeek V3-model is die bekendstelling van 'n FP8 gemengde presisie-opleidingsraamwerk, wat effektief op 'n uiters groot model gevalideer is, wat 'n beduidende prestasie aandui. Voorheen het groot spelers soos Microsoft en Nvidia verwante werk voorgestel, maar twyfel bestaan steeds binne die bedryf oor die uitvoerbaarheid. Daar word verstaan dat FP8 se primêre voordeel, in vergelyking met INT8, is dat kwantisering na opleiding byna verlieslose presisie kan behaal terwyl dit die inferensiespoed aansienlik verbeter. In vergelyking met FP16 kan FP8 tot twee keer versnelling op Nvidia se H20 en meer as 1.5 keer versnelling op die H100 realiseer. Dit is opmerklik dat namate besprekings rondom die tendens van plaaslike berekeningskrag plus plaaslike modelle momentum kry, spekulasie oor of Nvidia ontwrig kan word, en of die CUDA-sloot omseil kan word, toenemend algemeen word. Een onmiskenbare feit is dat DeepSeek inderdaad 'n aansienlike daling in Nvidia se markwaarde veroorsaak het, maar hierdie verskuiwing laat vrae ontstaan oor Nvidia se hoë-end berekeningskragintegriteit. Voorheen aanvaarde narratiewe rakende kapitaalgedrewe berekeningsopbou word uitgedaag, maar dit bly moeilik vir Nvidia om ten volle in opleidingscenario's vervang te word. Analise van DeepSeek se diepgaande gebruik van CUDA toon dat buigsaamheid – soos die gebruik van SM vir kommunikasie of die direkte manipulering van netwerkkaarte – nie haalbaar is vir gewone GPU's om te akkommodeer nie. Bedryfstandpunte beklemtoon dat Nvidia se grag die hele CUDA-ekosisteem omvat eerder as net CUDA self, en die PTX (Parallel Thread Execution) instruksies wat DeepSeek gebruik, is steeds deel van die CUDA-ekosisteem. "Op kort termyn kan Nvidia se berekeningskrag nie omseil word nie – dit is veral duidelik in opleiding; die ontplooiing van plaaslike kaarte vir redenasie sal egter relatief makliker wees, dus sal vordering waarskynlik vinniger wees. Die aanpassing van plaaslike kaarte fokus hoofsaaklik op inferensie; niemand het nog daarin geslaag om 'n model van DeepSeek se werkverrigting op plaaslike kaarte op skaal op te lei nie," het 'n bedryfsontleder aan AI Technology Review opgemerk. Oor die algemeen, vanuit 'n inferensie-oogpunt, is die omstandighede bemoedigend vir plaaslike groot modelskyfies. Die geleenthede vir plaaslike skyfievervaardigers binne die gebied van inferensie is meer duidelik as gevolg van opleiding se buitensporig hoë vereistes, wat toetrede belemmer. Ontleders beweer dat die blote benutting van plaaslike inferensiekaarte voldoende is; indien nodig, is die verkryging van 'n bykomende masjien haalbaar, terwyl opleidingsmodelle unieke uitdagings inhou - die bestuur van 'n groter aantal masjiene kan lastig raak, en hoër foutkoerse kan opleidingsuitkomste negatief beïnvloed. Opleiding het ook spesifieke groepskaalvereistes, terwyl die eise aan groepe vir inferensie nie so streng is nie, wat die GPU-vereistes verlig. Tans oortref die werkverrigting van Nvidia se enkele H20-kaart nie dié van Huawei of Cambrian nie; die sterkte daarvan lê in groepering. Gebaseer op die algehele impak op die rekenaarkragmark, het die stigter van Luchen Technology, You Yang, in 'n onderhoud met AI Technology Review opgemerk: "DeepSeek kan die vestiging en verhuring van ultra-groot opleidingsberekeningsgroepe tydelik ondermyn. Op die lange duur, deur die koste verbonde aan groot modelopleiding, redenasie en toepassings aansienlik te verminder, sal die markvraag waarskynlik styg. Daaropvolgende iterasies van KI gebaseer hierop sal dus voortdurend volgehoue vraag in die rekenaarkragmark dryf." Daarbenewens is "DeepSeek se verhoogde vraag na redenasie- en fynafstemmingsdienste meer versoenbaar met die plaaslike berekeningslandskap, waar plaaslike kapasiteite relatief swak is, wat help om vermorsing van onaktiewe hulpbronne na die vestiging van groepe te verminder; dit skep lewensvatbare geleenthede vir vervaardigers oor verskillende vlakke van die plaaslike berekeningsekosisteem." Luchen Technology het met Huawei Cloud saamgewerk om die DeepSeek R1-reeks redenasie-API's en wolkbeelddienste gebaseer op plaaslike berekeningskrag te loods. You Yang het optimisme oor die toekoms uitgespreek: "DeepSeek wek vertroue in plaaslike oplossings, wat groter entoesiasme en belegging in plaaslike berekeningsvermoëns aanmoedig."

Gevolgtrekking
Of DeepSeek "beter" as ChatGPT is, hang af van die spesifieke behoeftes en doelwitte van die gebruiker. Vir take wat buigsaamheid, lae koste en aanpassing vereis, kan DeepSeek beter wees. Vir kreatiewe skryfwerk, algemene navrae en gebruikersvriendelike gesprekskoppelvlakke kan ChatGPT die voortou neem. Elke instrument dien verskillende doeleindes, dus sal die keuse grootliks afhang van die konteks waarin dit gebruik word.
Beheerkabels
Gestruktureerde kabelstelsel
Netwerk en data, veseloptiese kabel, koppelingskoord, modules, voorplaat
16-18 April 2024 Midde-Oosterse Energie in Dubai
16-18 April 2024 Securika in Moskou
9 Mei 2024 NUWE PRODUKTE & TEGNOLOGIEË-BEKENDGELEENTHEID in Sjanghai
22-25 Oktober 2024 VEILIGHEID CHINA in Beijing
19-20 Nov. 2024 VERBONDE WÊRELD KSA
Plasingstyd: 10 Februarie 2025