For BMS, buss, industriell, instrumenteringskabel.

Når vårfestivalen avsluttes, forblir spenningen rundt DeepSeek sterk. Den nylige høytiden fremhevet en betydelig følelse av konkurranse innen teknologibransjen, med mange som diskuterte og analyserte denne "steinbit." Silicon Valley opplever en enestående krisefølelse: talsmenn for åpen kildekode gir uttrykk for sine meninger igjen, og til og med Openai revurderer om dens lukkede kildestrategi var det beste valget. Det nye paradigmet for lavere beregningskostnader har utløst en kjedereaksjon blant chip-giganter som NVIDIA, noe som førte til rekordløpsmarkedstap i amerikansk aksjemarkedshistorie, mens offentlige etater undersøker samsvar med brikkene som brukes av Deepsek. Midt i blandede anmeldelser av DeepSeek utenlands, opplever den innenlands ekstraordinær vekst. Etter lanseringen av R1 -modellen har den tilknyttede appen sett en økning i trafikken, noe som indikerer at vekst i applikasjonssektorer vil drive det samlede AI -økosystemet fremover. Det positive aspektet er at DeepSeek vil utvide anvendelsesmulighetene, noe som antyder at å stole på ChatGPT ikke vil være like dyrt i fremtiden. Dette skiftet har blitt reflektert i Openais nylige aktiviteter, inkludert tilbudet av en resonnementsmodell kalt O3-Mini til gratis brukere som svar på DeepSeek R1, samt påfølgende oppgraderinger som gjorde tankekjeden til O3-mini offentlig. Mange utenlandske brukere uttrykte takknemlighet til DeepSeek for denne utviklingen, selv om denne tankekjeden fungerer som et sammendrag.
Optimistisk er det tydelig at DeepSeek samlende innenlandske spillere. Med sitt fokus på å redusere treningskostnader, er forskjellige oppstrøms brikkeprodusenter, mellomskyleverandører og mange startups aktivt sammen med økosystemet, noe som forbedrer kostnadseffektiviteten for bruk av DeepSeek -modellen. I følge DeepSeeks artikler krever den komplette opplæringen av V3 -modellen bare 2,788 millioner H800 GPU -timer, og treningsprosessen er svært stabil. MOE (blanding av eksperter) arkitektur er avgjørende for å redusere kostnadene før trening med en faktor ti sammenlignet med Llama 3 med 405 milliarder parametere. For øyeblikket er V3 den første offentlig anerkjente modellen som demonstrerer så høy sparsitet i MOE. I tillegg fungerer MLA (flerlags oppmerksomhet) synergistisk, spesielt i resonnementaspekter. "Sparseren MOE, jo større er batchstørrelsen som trengs under resonnement for å utnytte beregningskraften fullt ut, med størrelsen på at KVCache er nøkkelbegrensende faktor; MLA reduserer KVCache -størrelsen betydelig," bemerket en forsker fra Chuanjing -teknologien i en analyse for AI -teknologigjennomgang. Totalt sett ligger DeepSeeks suksess i kombinasjonen av forskjellige teknologier, ikke bare en eneste. Bransjeinnsidere berømmer DeepSeek -teamets ingeniørfunksjoner, og legger merke til deres dyktighet i parallell trening og operatøroptimalisering, og oppnår banebrytende resultater ved å foredle alle detaljer. DeepSeeks åpen kildekode fremmer ytterligere den generelle utviklingen av store modeller, og det forventes at hvis lignende modeller utvides til bilder, videoer og mer, vil dette betydelig stimulere etterspørselen i bransjen.
Muligheter for tredjeparts resonnementstjenester
Data indikerer at siden dens utgivelse har DeepSeek påløpt 22,15 millioner daglige aktive brukere (DAU) i løpet av bare 21 dager, og oppnådd 41,6% av ChatGPTs brukerbase og overgår 16,95 millioner daglige aktive brukere av Doubao, og dermed blir den raskest voksende applikasjonen globalt, toppet Apple App Store i 157 land/regioner. Mens brukere strømmet inn i hopetall, har cyberhackere imidlertid nådeløst angrepet DeepSeek -appen, noe som forårsaket betydelig belastning på serverne. Bransjeanalytikere mener dette delvis skyldes DeepSeek som distribuerer kort for trening mens de mangler tilstrekkelig beregningskraft for resonnement. En bransjeinnsider informerte AI -teknologigjennomgangen, "De hyppige serverproblemene kan lett løses ved å belaste gebyrer eller finansiering for å kjøpe flere maskiner; til slutt avhenger det av DeepSeek sine beslutninger." Dette presenterer en avveining med å fokusere på teknologi kontra produktisering. DeepSeek har i stor grad avhengig av kvantumkvantisering for selvopphold, etter å ha mottatt lite ekstern finansiering, noe som resulterte i relativt lavt kontantstrømstrykk og et renere teknologisk miljø. For øyeblikket, i lys av de nevnte problemene, oppfordrer noen brukere DeepSeek på sosiale medier til å heve bruksterskelene eller introdusere betalte funksjoner for å forbedre brukerkomforten. I tillegg har utviklere begynt å bruke den offisielle API eller tredjeparts API-er for optimalisering. Imidlertid kunngjorde DeepSeek sin åpne plattform nylig, "nåværende serverressurser er knappe, og API -tjenesteladene er suspendert."
Dette åpner utvilsomt flere muligheter for tredjepartsleverandører i AI-infrastruktursektoren. Nylig har mange innenlandske og internasjonale skylantiske giganter lansert DeepSeek -modell -API -er - Overseas Giants Microsoft og Amazon var blant de første som ble med i slutten av januar. Den innenlandske lederen, Huawei Cloud, gjorde det første trekket, og ga ut DeepSeek R1 og V3 Reasoning Services i samarbeid med Silicon-basert flyt 1. februar. Rapporter fra AI Technology Review indikerer at Silicon-baserte Flows tjenester har sett en tilstrømning av brukere, og effektivt "krasjet" plattformen. De store tre teknologiselskapene-Bat (Baidu, Alibaba, Tencent) og Bytedance-utstedte også lave kostnader, med begrenset tid med begrenset tid fra 3. februar, som minner om fjorårets skyleverandørpriskriger antent av DeepSeeks V2-modelllansering, der DeepSeek begynte å bli dubbet "Price Butcher." De hektiske handlingene til skyleverandører gjenspeiler de tidligere sterke båndene mellom Microsoft Azure og Openai, hvor Microsoft i 2019 foretok en betydelig investering på 1 milliard dollar i Openai og høstet fordeler etter Chatgpts lansering i 2023. Dette nære forholdet begynte imidlertid å frise etter meta-åpent lama, og tillot andre vendorer I dette tilfellet har DeepSeek ikke bare overgått ChatGPT når det gjelder produktvarme, men har også introdusert open source-modeller etter O1-utgivelsen, lik spenningen rundt Llamas vekkelse av GPT-3.
I virkeligheten posisjonerer skyleverandører seg også som trafikkportveier for AI -applikasjoner, noe som betyr at utdypende bånd med utviklere oversettes til forebyggende fordeler. Rapporter indikerer at Baidu Smart Cloud hadde over 15 000 kunder som brukte DeepSeek -modellen via Qianfan -plattformen på modellens lanseringsdag. I tillegg tilbyr flere mindre firmaer løsninger, inkludert silisiumbasert flyt, Luchen-teknologi, Chuanjing-teknologi og forskjellige AI-infra-leverandører som har lansert støtte for DeepSeek-modeller. AI Technology Review har lært at dagens optimaliseringsmuligheter for lokaliserte distribusjoner av DeepSeek først og fremst eksisterer på to områder: en er optimalisering for sparsitetskarakteristikkene til MOE -modellen ved bruk av en blandet resonnement tilnærming for å distribuere 671 milliarder parameter MOE -modellen lokalt mens du bruker hybrid GPU/CPU -inferens. I tillegg er optimaliseringen av MLA viktig. Imidlertid står DeepSeek sine to modeller fremdeles overfor noen utfordringer med optimalisering av distribusjon. "På grunn av modellens størrelse og mange parametere, er optimalisering faktisk kompleks, spesielt for lokale distribusjoner der å oppnå en optimal balanse mellom ytelse og kostnader vil være utfordrende," uttalte en forsker fra Chuanjing -teknologi. Det viktigste hinderet ligger i å overvinne grensene for minnekapasitet. "Vi tar i bruk en heterogen samarbeidstilnærming for å utnytte CPU-er og andre beregningsressurser fullt ut, og bare plassere de ikke-delte delene av den sparsomme MOE-matrisen på CPU/DRAM for behandling ved bruk av CPU-operatører med høy ytelse, mens de tette delene holder seg på GPU," forklarte han videre. Rapporter indikerer at Chuanjings open source-rammeverk Ktransformers først og fremst injiserer forskjellige strategier og operatører i den opprinnelige transformatorens implementering gjennom en mal, noe som forbedrer inferansehastigheten betydelig ved bruk av metoder som cudagraph. DeepSeek har skapt muligheter for disse oppstartene, ettersom vekstfordeler blir tydelige; Mange firmaer har rapportert merkbar kundevekst etter å ha lansert DeepSeek API, og mottatt henvendelser fra tidligere kunder som leter etter optimaliseringer. Bransjeinnsidere har bemerket, "I det siste ble noe etablerte klientgrupper ofte låst i de standardiserte tjenestene til større selskaper, og tett bundet av kostnadsfordelene på grunn av skala. Imidlertid, etter å ha fullført distribusjonen av DeepSeek-R1/V3 før vårfestivalen, fikk vi plutselig samarbeidet fra flere kjente klienter. For øyeblikket ser det ut til at DeepSeek gjør modellens inferensytelse stadig mer kritisk, og med bredere bruk av store modeller vil dette fortsette å påvirke utviklingen i AI -infra -industrien betydelig. Hvis en modell på dypseek-nivå kan distribueres lokalt til en lav pris, vil den i stor grad hjelpe myndighetene og foretak digital transformasjonsinnsats. Imidlertid vedvarer utfordringene, ettersom noen kunder kan ha høye forventninger til store modellfunksjoner, noe som gjør det tydeligere at å balansere ytelse og kostnader blir viktig i praktisk distribusjon.
For å evaluere om DeepSeek er bedre enn ChatGPT, er det viktig å forstå deres viktigste forskjeller, styrker og bruke tilfeller. Her er en omfattende sammenligning:
Funksjon/aspekt | DeepSeek | Chatgpt |
---|---|---|
Eie | Utviklet av et kinesisk selskap | Utviklet av Openai |
Kildemodell | Åpen kildekode | Proprietær |
Koste | Gratis å bruke; billigere API -tilgangsalternativer | Abonnement eller pris per bruk |
Tilpasning | Svært tilpassbar, slik at brukere kan finpusse og bygge videre på det | Begrenset tilpasning tilgjengelig |
Ytelse i spesifikke oppgaver | Utmerker seg i visse områder som dataanalyse og henting av informasjon | Allsidig med sterk ytelse i kreativ skriving og samtaleoppgaver |
Språkstøtte | Sterkt fokus på kinesisk språk og kultur | Bred språkstøtte, men USA-sentrisk |
Treningskostnader | Lavere treningskostnader, optimalisert for effektivitet | Høyere treningskostnader, som krever betydelige beregningsressurser |
Responsvariasjon | Kan tilby forskjellige svar, muligens påvirket av geopolitisk kontekst | Konsekvente svar basert på treningsdata |
Målgruppe | Rettet mot utviklere og forskere som ønsker fleksibilitet | Rettet mot generelle brukere som leter etter samtalefunksjoner |
Bruk saker | Mer effektiv for kodegenerering og raske oppgaver | Ideell for å generere tekst, svare på spørsmål og delta i dialog |
Et kritisk perspektiv på "Disrupting Nvidia"
For tiden, bortsett fra Huawei, er flere innenlandske brikkeprodusenter som Moore -tråder, Muxi, Biran Technology og Tianxu Zhixin også tilpasser seg DeepSeek sine to modeller. En brikkeprodusent sa til AI Technology Review, "DeepSeek's Structure demonstrerer innovasjon, men det er fortsatt en LLM. Vår tilpasning til DeepSeek er først og fremst fokusert på resonnementapplikasjoner, noe som gjør teknisk implementering ganske grei og rask." Imidlertid krever MOE -tilnærmingen høyere krav når det gjelder lagring og distribusjon, kombinert med å sikre kompatibilitet når de distribueres med innenlandske brikker, og presenterer mange ingeniørutfordringer som trenger oppløsning under tilpasning. "Foreløpig samsvarer innenlandsk beregningskraft ikke NVIDIA i brukbarhet og stabilitet, og krever original fabrikkdeltakelse for programvaremiljøoppsett, feilsøking og grunnleggende ytelsesoptimalisering," sa en bransjeutøver basert på praktisk erfaring. Samtidig, "På grunn av den store parameterskalaen til DeepSeek R1, nødvendiggjør innenlandsk beregningskraft flere noder for parallellisering. I tillegg er de innenlandske maskinvarespesifikasjonene fremdeles noe bak; for eksempel kan Huawei 910B ikke støtte FP8 -slutningen introdusert av Deepseek." Et av høydepunktene i DeepSeek V3 -modellen er introduksjonen av et FP8 -ramme for blandet presisjonstrening, som har blitt validert effektivt på en ekstremt stor modell, og markerer en betydelig prestasjon. Tidligere antydet store aktører som Microsoft og Nvidia relatert arbeid, men tviler henger i bransjen angående gjennomførbarhet. Det er underforstått at sammenlignet med INT8, er FP8s primære fordel at kvantisering etter trening kan oppnå nesten tapsfri presisjon, samtidig som den forbedrer inferansehastigheten betydelig. Når du sammenligner med FP16, kan FP8 realisere opptil to ganger akselerasjon på NVIDIAs H20 og over 1,5 ganger akselerasjon på H100. Ettersom diskusjoner rundt trenden med innenlandsk beregningsmakt pluss innenlandske modeller får fart, blir spekulasjoner om Nvidia kan bli forstyrret, og om Cuda -vollgraven kan bli forbigått, blir stadig mer utbredt. Et ubestridelig faktum er at DeepSeek faktisk har forårsaket et betydelig fall i NVIDIAs markedsverdi, men dette skiftet reiser spørsmål angående NVIDIAs avanserte beregningsmessige kraftintegritet. Tidligere aksepterte fortellinger om kapitaldrevet beregningsakkumulering blir utfordret, men det er fortsatt vanskelig for Nvidia å erstattes fullt ut i treningsscenarier. Analyse av DeepSeeks dype bruk av CUDA viser at fleksibilitet - for eksempel bruk av SM for kommunikasjon eller direkte manipulering av nettverkskort - ikke er mulig for vanlige GPU -er å imøtekomme. Industriens synspunkter understreker at NVIDIAs MOAT omfatter hele CUDA -økosystemet i stedet for bare CUDA selv, og PTX (parallelle trådutførelse) instruksjoner som DeepSeek sysselsetter er fremdeles en del av CUDA -økosystemet. "På kort sikt kan NVIDIAs beregningskraft ikke omgås - dette er spesielt tydelig på trening; imidlertid vil det å distribuere innenlandske kort for resonnement være relativt enklere, så fremgangen vil sannsynligvis være raskere. Tilpasningen av innenlandske kort fokuserer først og fremst på inferens; ingen har ennå klart å trene en modell av dypsek -ytelse på husholdningskort på scale," en bransje analyse av en bransje som er en modell. Totalt sett er omstendighetene fra et inferens synspunkt oppmuntrende for innenlandske store modellbrikker. Mulighetene for innenlandske brikkeprodusenter innen inferensområdet er mer tydelige på grunn av opplæringens altfor høye krav, noe som hindrer inntreden. Analytikere hevder at ganske enkelt å utnytte innenlandske inferenskort er tilstrekkelig; Om nødvendig er det mulig å anskaffe en ekstra maskin, mens treningsmodeller utgjør unike utfordringer - å håndtere et økt antall maskiner kan bli tyngende, og høyere feilhastigheter kan påvirke treningsresultatene negativt. Opplæring har også spesifikke krav til klyngeskala, mens kravene til klynger for inferens ikke er like strenge, og dermed letter GPU -kravene. For øyeblikket overgår ikke ytelsen til NVIDIAs enkelt H20 -kort den fra Huawei eller Cambrian; styrken ligger i klynging. Basert på den samlede effekten på beregningsmarkedet, kan grunnleggeren av Luchen Technology, You Yang, bemerket i et intervju med AI Technology Review, "DeepSeek midlertidig undergrave etableringen og leien av ultra-stort trening av beregningsklynger. I denne lange vilkåret, reduserer det å redusere kostnadene til stor modell, og anvendelse. vedvarende etterspørsel i beregningsmarkedet. " I tillegg er "DeepSeeks økte etterspørsel etter resonnement og finjusteringstjenester mer kompatible med det innenlandske beregningslandskapet, der lokal kapasitet er relativt svake, og bidrar til å dempe avfall fra tomgangsressurser etter klyngens etablering; dette skaper levedyktige muligheter for produsenter på forskjellige nivåer i det innenlandske beregningsøkosystemet." Luchen Technology har samarbeidet med Huawei Cloud for å lansere DeepSeek R1 -serien Reasoning APIer og Cloud Imaging Services basert på innenlandsk beregningskraft. Du Yang uttrykte optimisme om fremtiden: "DeepSeek gir tillit til innenlands produserte løsninger, og oppmuntrer til større entusiasme og investeringer i innenlandske beregningsmuligheter fremover."

Konklusjon
Hvorvidt DeepSeek er "bedre" enn chatgpt, avhenger av brukerens spesifikke behov og mål. For oppgaver som trenger fleksibilitet, lave kostnader og tilpasning, kan DeepSeek være overlegen. For kreativ skriving, generell utredning og brukervennlige samtalegrensesnitt, kan ChatGPT ta ledelsen. Hvert verktøy tjener forskjellige formål, så valget vil i stor grad avhenge av konteksten de brukes i.
Kontrollkabler
Strukturert kablingssystem
Nettverk og data, fiberoptisk kabel, lappledning, moduler, frontplate
16.-18. 2024 Midt-East-energi i Dubai
16.-18. 2024 Securika i Moskva
9. mai 2024 Nye produkter og teknologiske lanseringsarrangement i Shanghai
22.-25. 2024 Sikkerhet Kina i Beijing
19. til 20. november 2024 tilkoblet verden KSA
Post Time: Feb-10-2025