En una conferencia sobre ciencia de datos en Midtown Manhattan, Nueva York, a principios de noviembre, la mesa de expositores de Nvidia estuvo constantemente rodeada de gente preocupada. No buscaban trabajo ni se tomaban selfies. En general, quedaron asombrados por las posibilidades que ofrecía la computación paralela.
Este es el concepto fundamental que catapultó a Nvidia a la empresa más valiosa del mundo. Y así se reveló durante la conferencia Pydata, donde tuvo lugar una breve demostración dirigida por el director de ingeniería de Nvidia, Rick Ratzel.
Al final, Nvidia fabrica procesadores gráficosTarjetas gráficas (GPU), que son microchips de computadora que manejan muchas tareas al mismo tiempo. De ahí el término computación paralela.
Los chips con los que la mayoría de la gente está familiarizada son las unidades centrales de procesamiento. o CPU. Puede encontrarlos en su computadora portátil y administrar una variedad de tareas. Aunque son rápidos y eficientes, generalmente completan estas tareas de una en una y en un orden prescrito.
Las GPU son perfectas para procesar grandes cantidades de datos necesario para construir y ejecutar modelos de inteligencia artificial, como GPT-4 de OpenAI, el cerebro informático detrás de ChatGPT.
Pero antes de que el famoso chatbot de inteligencia artificial (IA) llegara al mercado a finales de 2022, la computación paralela ya tenía el potencial de acelerar el tipo de ciencia de datos que hace cosas como ofrecer anuncios relevantes en línea, optimizar las decisiones de la cadena de suministro y realizar experimentos de descubrimiento en línea. .
Por esta razón, Nvidia ha tenido una larga relación con Pydata, una conferencia de desarrolladores que utilizan el lenguaje de programación Python para realizar análisis de datos.
Este año, Ratzel asistió a esta conferencia para presentar un nuevo acuerdo de software con Nvidia para desarrolladores de Python que utilizan herramientas populares de gestión de datos de código abierto.
El ejecutivo de Nvidia comenzó su demostración con un conjunto de datos de reseñas de películas y calificaciones numéricas. El objetivo era hacer buenas recomendaciones. Ratzel tuvo que conciliar al máximo los gustos de los críticos de cine con los gustos de una sola persona. Pero calcular quiénes tenían gustos similares no fue tan complicado. En los cálculos se incluyeron grandes cantidades de datos de 330.000 usuarios..
«Es gigantesco», explicó.
El análisis inicial tardó dos horas en completarse en una computadora convencional con CPU, dijo Ratzel. Haciendo algunos ajustes, el tiempo de cálculo podría reducirse a una hora.
Entonces, El administrador de Nvidia cambió a una GPU y volvió a ejecutar el análisis. Lo hizo en menos de dos segundos.. Esta velocidad se debe al cálculo paralelo de los procesadores gráficos.
El concepto ha existido desde la década de 1980, pero hasta hace relativamente poco tiempo la capacidad de realizar operaciones informáticas paralelas era difícil de alcanzar. La mayor disponibilidad de GPU de los proveedores de servicios en la nube ha facilitado que los científicos de datos entusiastas completen sus propios proyectos en segundos en lugar de horas.
Con tanto tiempo ahorrado, los investigadores pueden realizar muchos más experimentos y abordar muchos más proyectos.
«Esto cambia tu forma de trabajar.“Dijo Ratzel durante su conferencia. «Ahora puedo probar muchas cosas, hacer muchos experimentos y uso exactamente los mismos datos y exactamente el mismo código».
Los cálculos que realizan las GPU para habilitar la IA generativa son mucho más complejos y extensos que el uso de datos estructurados existentes para recomendar películas en función de características y preferencias compartidas.
El inmenso volumen de cálculo es el motivo de la demanda de tarjetas gráficas Nvidia. Y eso, a su vez, ha hecho que el negocio de la empresa dirigida por Jensen Huang sea tan valioso para los inversores.
Conócelo como trabajamos En Información privilegiada sobre negocios.
Etiquetas: Tendencias, inteligencia artificial, semiconductores, liderazgo, computación en la nube
Comments