Desde 2023, Amazon y Anthropic han colaborado para acelerar la adopción de la IA generativa en todos los sectores, facilitando a los clientes la creación, implementación y escalabilidad de aplicaciones de IA que resuelven problemas del mundo real. En la actualidad, más de 100 000 clientes ejecutan modelos de Anthropic Claude en AWS, lo que convierte a Claude en una de las familias de modelos más populares de Amazon Bedrock. Las dos empresas también están ampliando los límites de lo posible con una infraestructura a gran escala, colaborando en el Proyecto Rainier uno de los clústeres de computación de IA más grandes del mundo y, juntas, están abriendo nuevos horizontes en lo que se refiere a las posibilidades de la investigación y el desarrollo en IA.
Ampliando este éxito, hoy Amazon y Anthropic profundizan su colaboración con el compromiso de Anthropic de invertir más de 100 000 millones de dólares durante los próximos diez años en tecnologías de AWS. Esto abarca las generaciones actuales y futuras de Trainium (el silicio personalizado de Amazon) y decenas de millones de núcleos Graviton (el chip de CPU ampliamente adoptado de Amazon) para ofrecer una relación calidad-precio superior. Anthropic se asegurará hasta 5 gigavatios (GW) de capacidad para entrenar y alimentar sus modelos avanzados de IA, incluida una importante capacidad de Trainium3 que se espera que entre en funcionamiento este año. La colaboración también incluye una significativa expansión de la inferencia internacional en Asia y Europa para atender mejor a la creciente base de clientes internacionales de Claude.
En general, el compromiso incluye Trainium2, Trainium3, Trainium4 y la posibilidad de adquirir futuras generaciones de Trainium a medida que estén disponibles. Anthropic ya utiliza AWS Trainium y Graviton para ofrecer un rendimiento escalable y rentabilidad en una amplia gama de cargas de trabajo de IA generativa, lo que le permite acelerar su crecimiento gracias a la escala, la rentabilidad y la seguridad de AWS. Tanto Trainium como Graviton son utilizados por más de 100 000 clientes cada uno, y Amazon Bedrock (el servicio de inferencia de alto rendimiento de Amazon con una selección líder de modelos de vanguardia) ejecuta hoy en día la mayor parte de su inferencia en Trainium.
Además, los clientes de AWS podrán acceder a la consola Claude nativa de Anthropic desde dentro de AWS. Claude Platform on AWS permite a los clientes acceder a la plataforma Claude de Anthropic a través de su cuenta de AWS existente, sin necesidad de gestionar credenciales, contratos o relaciones de facturación adicionales. Los clientes pueden utilizar los mismos controles de acceso y supervisión de AWS que ya tienen implementados, lo que facilita el acceso directo a la experiencia nativa de Claude de Anthropic. Tanto si los clientes eligen Claude Platform on AWS como Claude on Amazon Bedrock, AWS y Anthropic se han asociado para ofrecer a los clientes la vía de acceso a Claude que mejor se adapte a sus necesidades.
Por otra parte, Amazon invertirá hoy 5000 millones de dólares en Anthropic y hasta 20 000 millones de dólares adicionales en el futuro, vinculados a determinados hitos comerciales. Esto se suma a los 8000 millones de dólares que Amazon invirtió anteriormente en Anthropic.
«Nuestro chip de IA personalizado ofrece un alto rendimiento a un coste significativamente menor para los clientes, por lo que tiene una demanda tan alta», afirmó Andy Jassy, director ejecutivo de Amazon. «El compromiso de Anthropic de ejecutar sus grandes modelos de lenguaje en AWS Trainium durante la próxima década refleja el progreso que hemos logrado juntos en materia de chips personalizados, a medida que seguimos proporcionando la tecnología y la infraestructura que nuestros clientes necesitan para desarrollar con IA generativa».
«Nuestros usuarios nos dicen que Claude es cada vez más esencial para su forma de trabajar, y necesitamos construir la infraestructura necesaria para seguir el ritmo de una demanda en rápido crecimiento», afirmó Dario Amodei, director ejecutivo y cofundador de Anthropic. «Nuestra colaboración con Amazon nos permitirá seguir avanzando en la investigación en IA al tiempo que ofrecemos Claude a nuestros clientes, incluidos los más de 100 000 que desarrollan en AWS».
Amazon y Anthropic continúan profundizando su relación, impulsadas por un compromiso compartido con la innovación rápida, el desarrollo responsable de la IA y la obtención de resultados para los clientes, lo que ya incluye:
- Colaboración en chips personalizados. Anthropic utiliza chips AWS Trainium para crear, entrenar e implementar sus modelos de IA de primer nivel. Anthropic trabaja en estrecha colaboración con Annapurna Labs en el desarrollo y la optimización de los futuros chips Trainium, proporcionando información directa de las cargas de trabajo de entrenamiento de Claude para dar forma al diseño de chips de próxima generación para modelos de IA de vanguardia y beneficiar a otros clientes de AWS. Esto ha dado lugar a una sólida relación de ingeniería que está ayudando a Anthropic a acelerar el desarrollo de sus modelos, con ambos equipos de ingeniería comunicándose casi a diario sobre todo, desde el trabajo de optimización de bajo nivel hasta las decisiones arquitectónicas de alto nivel para los chips de próxima generación.
- Proyecto Rainier. AWS colaboró con Anthropic para lanzar el Proyecto Rainier, uno de los clústeres de computación de IA más grandes del mundo, con casi medio millón de chips Trainium2. Cuando se lanzó, el Proyecto Rainier era más grande que cualquier otro clúster de computación de IA del mundo, y Anthropic lo está utilizando activamente para entrenar e implementar modelos de Claude para clientes de todo el mundo en sus aplicaciones impulsadas por IA. El Proyecto Rainier también se está utilizando para crear e implementar futuras versiones de Claude, y cuanto más poder de cálculo se dedique al entrenamiento de este modelo pionero, más inteligente y preciso se vuelve. El Proyecto Rainier es ahora un modelo para implementar a gran escala el tipo de potencia computacional bruta que permitirá a la IA abordar los retos humanos más difíciles y hacer posibles avances en todo, desde la medicina hasta la ciencia climática.
- Potenciando a los desarrolladores de todo el mundo. AWS es el mejor lugar para ejecutar la familia de modelos Claude de Anthropic, de primer nivel, que incluye Opus, Sonnet y Haiku, y más de 100 000 organizaciones de todos los tamaños los están ejecutando en Amazon Bedrock para hacer cosas que antes no eran posibles. Por ejemplo, Lyft incorporó Claude, a través de Amazon Bedrock, para impulsar su asistente de IA de atención al cliente, lo que permite ofrecer respuestas rápidas a los problemas de asistencia más comunes y derivar a los clientes a un especialista humano cuando se requiere una ayuda más personalizada, reduciendo el tiempo medio de resolución del servicio de atención al cliente en un 87 % y resolviendo miles de solicitudes de clientes a diario. Pfizer utiliza Amazon Bedrock con Claude para ayudar a los científicos a buscar entre los aproximadamente 20 000 documentos generados por cada proyecto de desarrollo de fármacos mediante comandos de voz y un chatbot, lo que ahorra a los científicos 16 000 horas de búsqueda al año, al tiempo que reduce los costes de infraestructura en un 55 %. Claude también impulsa experiencias en una amplia gama de tecnologías adicionales de AWS, como Amazon Connect, Kiro y Amazon Quick, lo que facilita a los desarrolladores experimentar, personalizar e implementar IA en AWS.
- Proveedor principal de formación y de servicios en la nube. Anthropic sigue eligiendo AWS como su proveedor principal de formación y de servicios en la nube para cargas de trabajo de misión crítica. Los desarrolladores e ingenieros de Amazon también tienen acceso a los modelos de Claude para mejorar la experiencia de los clientes en todos los negocios de Amazon.
