Os produtos de servizos de intelixencia artificial xenerativa como ChatGPT e Midjourney están a chamar a atención do mercado. Neste contexto, a Asociación da Industria de Intelixencia Artificial de Corea (KAIIA) celebrou o 'Gen-AI Summit 2023' no COEX en Samseong-dong, Seúl. O evento de dous días ten como obxectivo promover e avanzar no desenvolvemento da intelixencia artificial xerativa (IA), que está a expandir todo o mercado.
O primeiro día, comezando co discurso de apertura de Jin Junhe, xefe do departamento de negocios de fusión de intelixencia artificial, asistiron grandes empresas tecnolóxicas como Microsoft, Google e AWS que desenvolven e prestan servizo a ChatGPT, así como industrias sen fábulas que desenvolven semicondutores de intelixencia artificial. realizou presentacións relevantes, incluíndo "Cambios de PNL traídos por ChatGPT" do CEO de Persona AI, Yoo Seung-jae, e "Construír un chip de inferencia de IA de alto rendemento, eficiente e escalable para ChatGPT" do CEO de Furiosa AI, Baek Jun-ho .
Jin Junhe dixo que en 2023, o ano da guerra da intelixencia artificial, o enchufe ChatGPT entrará no mercado como unha nova regra de xogo para a enorme competencia de modelos lingüísticos entre Google e MS. Neste caso, prevé oportunidades en semicondutores e aceleradores de IA que admiten modelos de IA.
Furiosa AI é unha empresa representativa sen fábulas que fabrica semicondutores AI en Corea. O conselleiro delegado de Furiosa AI, Baek, que está a traballar duro para desenvolver semicondutores de IA de propósito xeral para poñerse ao día con Nvidia, que ten a maior parte do mercado mundial de IA a hiperescala, está convencido de que "a demanda de chips no campo da IA explotará no futuro. ”
A medida que os servizos de IA se fan máis complexos, inevitablemente afrontan un aumento dos custos de infraestrutura. Os produtos actuais de GPU A100 e H100 de Nvidia teñen o alto rendemento e a potencia de cálculo necesarios para a computación de intelixencia artificial, pero debido ao aumento dos custos totais, como o alto consumo de enerxía e os custos de implantación, incluso as empresas de gran escala desconfían de cambiar a produtos de nova xeración. A relación custo-beneficio expresou preocupación.
Neste sentido, Baek adiantou a dirección do desenvolvemento tecnolóxico, dicindo que ademais de que cada vez son máis as empresas que adopten solucións de intelixencia artificial, a demanda do mercado será maximizar a eficiencia e o rendemento dentro dun sistema específico, como o "aforro de enerxía".
Ademais, subliñou que o punto de propagación do desenvolvemento de semicondutores de intelixencia artificial en China é a "usabilidade", e dixo que como resolver o soporte do ambiente de desenvolvemento e a "programabilidade" serán a clave.
Nvidia construíu CUDA para mostrar o seu ecosistema de soporte e garantir que a comunidade de desenvolvemento admita marcos representativos para a aprendizaxe profunda como TensorFlow e Pytoch estase a converter nunha importante estratexia de supervivencia para a produción.
Hora de publicación: 29-maio-2023