Últimas noticias: Cómo cerrar una ventaAsfixia regulatoriaOtras formas de resolver problemas5 ideas aeropuertos futuroPayflow levanta 10M€Define tu cartera de productosLos comercios más innovadoresTintoremus abre su primera tiendaVentajas de una orden de compra4 negocios muy diferentes
x
X
Newsletter Emprendedores

Lo mejor de emprendedores semanalmente en tu correo

X
Emprendedores abril 2025 Ya a la venta

La revista líder en economía y empresa

Preview Suscríbete
Contenidos exclusivos, revista física
y muchas más ventajas
Publicidad

Archetype, el chatGPT para el mundo físico

Esta startup acelerada por Amazon Web Services (AWS) está desarrollando un lenguaje universal para comunicarnos con nuestro entorno

29/11/2024  Pilar AlcázarStartups
Compartir

¿Puede la inteligencia artificial ‘hablar’ con las cosas que nos rodean? Los fundadores de Archetype AI están convencidos de ello y están construyendo un gran modelo de lenguaje para interpretar y comunicarnos con todo lo que tenemos alrededor; el chatGPT para el mundo físico.

“Mientras la mayoría piensa en modelos de lenguaje o en imágenes, que también tiene conexión con el lenguaje, nosotros estamos creando un gran modelo para el mundo físico. Nos centramos fundamentalmente en entrenar modelos con datos procedentes de una variedad de sensores físicos. Por ejemplo, sensores de una fábrica, una máquina, un almacén, un hogar o un sistema médico. Y tratamos de construir un modelo único, un supermodelo, que pueda manejar la información de todo tipo de sensores”, explica Ivan Poupyrev, director ejecutivo de Archetype AI.

“No es un Internet de las cosas”, aclara Popuyrev. “Internet de las cosas sucedió hace tiempo y es lo que ha permitido que las empresas tengan sensores y recojan datos. El problema es que no saben qué hacer con ellos y hay muchos tipos de sensores, por lo que resulta muy difícil conectar toda esa información”.

Ellos se han propuesto unificar todos esos datos procedentes de muchos lugares distintos y convertirlos en un lenguaje único que nos permita comunicarnos y comprender mejor el mundo que nos rodea. “Hablar con el mundo físico de la misma manera que hablamos con el mundo digital”, explica Poupyrev.

Y pone un ejemplo muy sencillo de lo que es ese objetivo: “Nosotros percibimos el mundo a través de nuestros ojos, nuestros oídos… y nuestro cerebro lo junta todo de forma natural. Las máquinas perciben el mundo por los sensores, pero hay muchos tipos de sensores. Pensamos en cómo hablar con el mundo físico igual que hablas con el equipo de Archetype. Crear un lenguaje con el que pueda interactuar con las cosas y hacerles preguntas. Por ejemplo, puedo preguntarle a una fábrica o a un coche si hay alguna anomalía o cuál es el estado del equipo”, continúa Poupyrev.

El supermodelo que pueda manejar todos los sensores

El problema es que “no existe la posibilidad de construir modelos de IA para sensores, es muy caro y muy difícil porque se construyen modelos para cada sensor: un sensor para el audio, un sensor para la temperatura, un sensor para el GPS, un sensor para el barómetro. Un teléfono tiene quizás 20 sensores diferentes. Y luego, cada uno de ellos está muy aislado. Lo que se obtiene es una gran cantidad de datos, pero no se entiende lo que está sucediendo. Entonces, pensamos que con los modelos modernos se puede construir un supermodelo que pueda manejar todos los sensores. Integramos información de múltiples sensores para brindarte un resultado mucho más completo sobre lo que hace el producto”.

Un supermodelo que funcione como nuestro cerebro. “Si estás en la cocina y tienes una cámara, solo con la cámara no puedes saber si la cocina está sobrecalentada. Necesitas un sensor de temperatura. Y el sensor de temperatura no es suficiente para decir que hay peligro de incendio porque la temperatura puede variar de un lugar a otro. Solo una combinación de dos cámaras más un sensor de temperatura puede decirte que probablemente haya un incendio. Ese es un ejemplo de fusión de sensores, y los humanos lo tenemos de forma natural, pero las máquinas no. Los humanos tenemos un único supermodelo natural, que es nuestro modelo perceptivo, que fusiona la información y te da la respuesta correcta, diferentes tipos de información, y lograr este tipo de fusión es imposible ahora mismo. Creo que no se puede resolver tratando de conectar muchos sensores diferentes uno por uno, tienes que construir el modelo que pueda entenderlos todos al mismo tiempo”, añade el director ejecutivo de Archetype AI.

De Google a un programa de aceleración en Amazon

La empresa se creó formalmente en 2023, pero echó a andar realmente en 2024. Detrás están cinco profesionales de Google que trabajaban desarrollando algoritmos para sensores y dejaron su trabajo para montar Archetype. Apenas nueve meses con un proyecto que ha recaudado 14 millones de dólares cuando solo tienen “construido el edificio”, pero que también ha llamado la atención de Amazon. 

Les entrevistamos en los primeros días de su aterrizaje en el programa AWS Generative AI Accelerator, donde esperan aprovechar las tres patas de apoyo que ofrece esta aceleradora: la técnica, las relaciones y el go to market. “En primer lugar esperamos construir relaciones más profundas con Amazon, en particular con AWS. Y eso significa tener una mejor comprensión de las capacidades técnicas, lo que es posible y lo que no, y también potencialmente salir al mercado junto con AWS. Quizás juntos, ir a buscar clientes”, comenta Poupyrev.

En segundo lugar, “tener una perspectiva más amplia de otras empresas. De 4.000 empresas seleccionaron el 2%, es decir, solo 80 empresas. Así que esta es una gran oportunidad para que veamos en todo el espacio de la generación de IA quién está haciendo qué. Para nosotros es como un conocimiento básico. Y el tercero es que creo que Amazon tiene mucho acceso a muchos contactos externos excelentes. A quienes podríamos presentar y ayudar a hacer crecer la empresa. Por ejemplo, para contratar, para recibir asesoramiento comercial, consultoría…. Creo que podemos aprovechar la red social de Amazon, ser parte de la comunidad es importante”.

“Pero el primer objetivo es el acceso a la tecnología. En nuestra startup construimos la mayor parte de la tecnología nosotros mismos. Gran parte del software lo construimos nosotros, pero dependemos de Amazon para la infraestructura básica. Y también nos interesa la conexión entre Amazon y Nvidia. Están conectadas y trabajan juntas, por lo que puedes hablar con Nvidia y Amazon al mismo tiempo”.

¿Los clientes potenciales que pueden presentarles Amazon? “La mayoría de los mercados en los que nos estamos enfocando incluyen la automatización industrial, el transporte, el almacenamiento, la logística y la electrónica de consumo. Estos son grandes mercados en los que hay ciertas industrias en las que somos muy ricos en datos de sensores. Captan una gran cantidad de datos de sensores”.

“Estamos hablando con algunos clientes y nos dicen que algunas de sus máquinas tienen miles de sensores, miles. Y de ellos, cientos son críticos. Los humanos no pueden procesar esos datos y los algoritmos actuales solo pueden hacer un trabajo muy pequeño de procesamiento de estos datos. Así que ayudarles a comprender los datos es clave”.

Aplicaciones de su producto

Nvidia y varias empresas de robótica están usando modelos como el nuestro para el mundo de la robótica. Vemos más empresas físicas que hacen autos que se conducen solos.Vemos algunas empresas médicas que construyen modelos para diferentes partes de la percepción humana, como el flujo sanguíneo. Básicamente, aplicando técnicas de IA para problemas físicos. Vemos cada vez más. Pero es difícil llamarlos competidores porque la cantidad de problemas que estamos tratando de resolver en el mundo físico es enorme. Así que, hay poca superposición entre nosotros. Y, de hecho, en la mayoría de los casos, vemos a nuestros competidores principalmente como futuros clientes. Porque no queremos resolver problemas de la mecánica del flujo sanguíneo a través de la función de bombeo del corazón u otras funciones médicas. Pero nos gustaría que utilizaran nuestro modelo para acelerar su desarrollo. No queremos construir robots, pero queremos que utilicen nuestro modelo para acelerar el desarrollo de robots. Por lo tanto, vemos a la mayoría de las empresas como clientes potenciales en este espacio”.

“Ahora mismo estamos construyendo tecnología y es un proceso muy intenso construir cosas. Para principios del año que viene queremos anunciar el producto, definirlo, hablar de las características, de lo que hace, etcétera”.

¿El futuro de la IA en general?

“Veo la IA como una forma muy diferente de crear software fundamentalmente. No la veo como una especie de inteligencia. No lo es, incluso hoy en día, la IA es solo un bot de chat. Así que es difícil para mí ver competencia para los humanos. Pero lo que realmente permite la IA es una forma muy nueva y muy emocionante de crear software, de ejecutar todos nuestros dispositivos. Porque en lugar de que los humanos escriban todo e intenten encontrar cualquier problema, la IA debería poder generar soluciones automáticamente en tiempo real, en función de nuestra intención. Entonces, en lugar de que los humanos le digan a las máquinas paso a paso cómo deberían hacer esto, deberíamos poder decirles lo que queremos y la máquina podrá llenar los espacios en blanco y llevarnos a lo que queremos más rápido, mejor, más barato, pero probablemente no será tan bueno como queremos, así que habrá un proceso para cambiarlo. Creo que ese es un cambio fundamental de cómo solíamos crear software ahora y cómo vamos a crear software en el futuro”.

Pilar AlcázarPeriodista especializada en oportunidades de negocio, marketing y tendencias.
Compartir