Guerra de intelixencia artificial xeradora, "Ai Chip Demand explota"

Os produtos do Servizo de Intelixencia Artificial Xerativo como ChatGPT e MidJourney están atraendo a atención do mercado. Fronte a este contexto, a Asociación de Industria de Intelixencia Artificial de Corea (KAIIA) realizou o 'Cumio Gen-Ai 2023 ′ no Coex en Samseong-dong, Seúl. O evento de dous días pretende promover e avanzar no desenvolvemento de intelixencia artificial xeradora (AI), que está a ampliar todo o mercado.

O primeiro día, comezando polo discurso clave de Jin Junhe, xefe do departamento de negocios de fusión de intelixencia artificial, grandes empresas tecnolóxicas como Microsoft, Google e AWS desenvolvendo e servindo activamente a Chatgpt, así como as industrias de Fabless que desenvolven semicondutores de intelixencia artificial asistiu e fixeron presentacións relevantes, incluídos "NLP Traen por ChatGpt" por persoa. Chip de inferencia de AI de alto rendemento, eficiente e escalable para o chatgpt "do director xeral de Furiosa AI, Baek Jun-ho.

Jin Junhe dixo que en 2023, o ano da guerra de intelixencia artificial, o enchufe Chatgpt entrará no mercado como unha nova regra de xogo para a enorme competencia de modelos de idiomas entre Google e MS. Neste caso, prevé oportunidades en semiconductores e aceleradores de IA que admiten modelos de AI.

Furiosa AI é unha empresa representativa Fabless Company Fabricación de semiconductores en Corea. O conselleiro delegado de Furiosa AI, Baek, que está a traballar duro para desenvolver semiconductores de AI de propósito xeral para poñerse ao día con Nvidia, que mantén a maior parte do mercado mundial en AI hiperscala, está convencido de que "a demanda de chips no campo AI explotará no futuro"

A medida que os servizos de IA fanse máis complexos, inevitablemente afrontan un aumento dos custos de infraestrutura. Os produtos actuais A100 e H100 GPU de NVIDIA teñen o alto rendemento e a potencia informática necesarios para a informática de intelixencia artificial, pero debido ao aumento dos custos totais, como os altos custos de consumo de enerxía e despregamento, incluso as empresas de ultra-escala están preocupadas de cambiar a produtos de próxima xeración. A relación custo-beneficio expresou a súa preocupación.

Neste sentido, Baek predicía a dirección do desenvolvemento tecnolóxico, dicindo que, ademais de cada vez máis empresas que adopten solucións de intelixencia artificial, a demanda do mercado será maximizar a eficiencia e o rendemento dentro dun sistema específico, como o "aforro de enerxía".

Ademais, subliñou que o punto de propagación do desenvolvemento de semicondutores de intelixencia artificial en China é a "usabilidade" e dixo como resolver o apoio ao ambiente de desenvolvemento e a "programabilidade" será a clave.

NVIDIA construíu CUDA para amosar o seu ecosistema de soporte e garantindo que a comunidade de desenvolvemento apoia os cadros representativos para a aprendizaxe profunda como Tensorflow e Pyowoch está a converterse nunha importante estratexia de supervivencia para a produción.


Tempo de publicación: maio-29-2023