Anthropic

Anthropic en SaetaIA

Seguimiento de las últimas noticias, modelos y herramientas de Anthropic. Desde Claude hasta la API y los avances en IA segura.

35

Noticias

4

Herramientas

Últimas Noticias

35 artículos sobre Anthropic

API

Anthropic Python SDK v0.88.0

Anthropic Python SDK v0.88.0

API

Claude Code v2.1.90

- Added `/powerup` — interactive lessons teaching Claude Code features with animated demos

Australian government and Anthropic sign MOU for AI safety and research
Empresa

Australian government and Anthropic sign MOU for AI safety and research

Anthropic firmó un Memorando de Entendimiento con el gobierno australiano para cooperar en investigación de seguridad IA y apoyar el Plan Nacional de IA de Australia. La compañía anunció AUD$3 millones en asociaciones con instituciones de investigación australianas para usar Claude en diagnóstico y tratamiento de enfermedades.

Partnering with Mozilla to improve Firefox’s security
Seguridad

Partnering with Mozilla to improve Firefox’s security

Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.

Anthropic Economic Index report: Learning curves
Seguridad

Anthropic Economic Index report: Learning curves

Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.

Introducing our Science Blog
Seguridad

Introducing our Science Blog

Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.

Long-running Claude for scientific computing
Seguridad

Long-running Claude for scientific computing

Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.

Anthropic Economic Index report: Economic primitives
Investigación

Anthropic Economic Index report: Economic primitives

This report introduces new metrics of AI usage to provide a rich portrait of interactions with Claude in November 2025, just prior to the release of Opus 4.5.

Investigación

What 81,000 People Want from AI

Anthropic entrevistó a 80.508 usuarios de Claude en 159 países e idiomas para entender sus esperanzas y preocupaciones sobre la IA. La investigación revela que las personas buscan que la IA mejore su calidad de vida —productividad, crecimiento personal y seguridad financiera— mientras se preocupan por el desplazamiento laboral y la pérdida de autonomía.

Labor market impacts of AI: A new measure and early evidence
Seguridad

Labor market impacts of AI: A new measure and early evidence

Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.

Introducing Claude Opus 4.5
Seguridad

Introducing Claude Opus 4.5

Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.

Anthropic invests $100 million into the Claude Partner Network
LLMs

Anthropic invests $100 million into the Claude Partner Network

We’re launching the Claude Partner Network, a program for partner organizations helping enterprises adopt Claude.

Introducing Sonnet 4.6
Herramientas

Introducing Sonnet 4.6

Claude Sonnet 4.6 is a full upgrade of the model’s skills across coding, computer use, long-reasoning, agent planning, knowledge work, and design.

Introducing The Anthropic Institute
Empresa

Introducing The Anthropic Institute

We’re launching The Anthropic Institute, a new effort to confront the most significant challenges that powerful AI will pose to our societies.

Sydney will become Anthropic’s fourth office in Asia-Pacific
Seguridad

Sydney will become Anthropic’s fourth office in Asia-Pacific

Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.

Where things stand with the Department of War
Empresa

Where things stand with the Department of War

Where things stand with the Department of War

Enabling Claude Code to work more autonomously
Herramientas

Enabling Claude Code to work more autonomously

Introducing Claude Code upgrades: native VS Code extension, terminal UX updates, and checkpoints for autonomous development. Handle complex tasks with confidence.

Mapping the Mind of a Large Language Model
Investigación

Mapping the Mind of a Large Language Model

We have identified how millions of concepts are represented inside Claude Sonnet, one of our deployed large language models. This is the first ever detailed look inside a modern, production-grade large language model.

Statement on the comments from Secretary of War Pete Hegseth
Empresa

Statement on the comments from Secretary of War Pete Hegseth

Anthropic's response to the Secretary of War and advice for customers

Statement from Dario Amodei on our discussions with the Department of War
Seguridad

Statement from Dario Amodei on our discussions with the Department of War

A statement from our CEO on national security uses of AI

An update on our model deprecation commitments for Claude Opus 3
Seguridad

An update on our model deprecation commitments for Claude Opus 3

Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.

Anthropic acquires Vercept to advance Claude's computer use capabilities
Seguridad

Anthropic acquires Vercept to advance Claude's computer use capabilities

Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.

Responsible Scaling Policy Version 3.0
Seguridad

Responsible Scaling Policy Version 3.0

An update to Anthropic's policy to mitigate catastrophic risks from AI

Anthropic Education Report: The AI Fluency Index
Investigación

Anthropic Education Report: The AI Fluency Index

Anthropic's AI Fluency Index measures 11 observable behaviors across thousands of Claude.ai conversations to understand how people develop AI collaboration skills.

Detecting and preventing distillation attacks
Seguridad

Detecting and preventing distillation attacks

Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.

Introducing Anthropic Interviewer
Investigación

Introducing Anthropic Interviewer

What 1,250 professionals told us about working with AI

Anthropic and the Government of Rwanda sign MOU for AI in health and education
Empresa

Anthropic and the Government of Rwanda sign MOU for AI in health and education

Anthropic y el gobierno de Ruanda formalizaron una asociación de tres años para desplegar IA en educación, salud y sistemas del sector público. El acuerdo representa el primer MOU multisectorial gubernamental de Anthropic en el continente africano.

India Country Brief: The Anthropic Economic Index
Seguridad

India Country Brief: The Anthropic Economic Index

Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.

Anthropic is donating $20 million to Public First Action
Empresa

Anthropic is donating $20 million to Public First Action

Anthropic dona $20 millones a Public First Action, una organización 501(c)(4) bipartidista centrada en política y gobernanza de la IA. La iniciativa busca apoyar la educación pública sobre riesgos de IA, promover salvaguardas y garantizar el liderazgo competitivo de Estados Unidos en el desarrollo de IA.

How AI assistance impacts the formation of coding skills
Seguridad

How AI assistance impacts the formation of coding skills

Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.

Claude is a space to think
Empresa

Claude is a space to think

Anthropic anuncia que Claude permanecerá sin publicidad para preservar su función como asistente genuinamente útil. La empresa argumenta que los incentivos publicitarios son incompatibles con ofrecer apoyo imparcial, dado que los usuarios comparten información personal sensible en las conversaciones.

The Anthropic Economic Index report: New building blocks for understanding AI use
Seguridad

The Anthropic Economic Index report: New building blocks for understanding AI use

Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.

Introducing Labs
Empresa

Introducing Labs

Anthropic expande Labs, un equipo dedicado a desarrollar productos experimentales en la frontera de las capacidades de Claude. La iniciativa cuenta con el cofundador de Instagram Mike Krieger como líder y busca equilibrar innovación con escalado responsable de productos de IA.

Next-generation Constitutional Classifiers: More efficient protection against universal jailbreaks
Seguridad

Next-generation Constitutional Classifiers: More efficient protection against universal jailbreaks

Anthropic presenta Constitutional Classifiers++, un sistema de seguridad mejorado que protege a Claude de ataques de jailbreak reduciendo costes computacionales. La nueva arquitectura de dos etapas usa sondas internas y métodos ensemble para lograr la tasa de ataques exitosos más baja jamás probada.

Claude on Mars
Herramientas

Claude on Mars

Claude planificó con éxito la primera ruta autónoma del rover Perseverance en Marte, navegando 400 metros por terreno rocoso el 8 y 10 de diciembre de 2025. Los ingenieros del JPL proporcionaron a Claude años de datos de operación del rover y usaron Claude Code para generar comandos en Rover Markup Language.

Herramientas

Herramientas Disponibles

4 herramientas de Anthropic

Uso avanzado de herramientas en Claude: Tool Search, MCP Apps y soporte interactivo

Disponible

Anthropic detalló las capacidades avanzadas de uso de herramientas en Claude, incluyendo MCP Tool Search con lazy loading que reduce los tokens de 134k a 5k, la extensión MCP Apps para interfaces interactivas renderizadas dentro de Claude, y nuevas restricciones de contexto (cap de 2KB en descripciones de herramientas, deduplicación de servidores MCP y caché de system-prompt global).

anthropicclaudemcpherramientas
Ver documentación

Anthropic dona el Model Context Protocol y establece la Agentic AI Foundation

Disponible

Anthropic donó el Model Context Protocol (MCP) a una fundación independiente, la Agentic AI Foundation, para asegurar su desarrollo neutral y abierto como estándar de la industria. El 25 de marzo de 2026, MCP superó los 97 millones de instalaciones, convirtiéndose en el estándar de infraestructura de IA agéntica de más rápida adopción en la historia.

anthropicmcpmodel-context-protocolopen-source
Ver documentación

Nuevas capacidades para construir agentes en la API de Anthropic

Disponible

Anthropic lanzó nuevas capacidades agénticas en la API de Claude, incluyendo Tool Search (búsqueda dinámica de herramientas con lazy loading que reduce el uso de tokens de 134k a 5k), Programmatic Tool Calling (invocación de herramientas en entorno de ejecución de código) y Tool Use Examples (estándar para demostrar el uso de herramientas). El conector MCP permite conectar Claude a cualquier servidor MCP remoto sin escribir código cliente.

anthropicclaudeapiagentes
Ver documentación

Claude Code: el agente de programación de Anthropic para terminal e IDE

Disponible

Claude Code es el agente de programación de Anthropic diseñado para operar directamente en el terminal y en IDEs, con capacidad de leer y escribir archivos, ejecutar comandos, buscar en codebases y crear commits de Git. En 2026, incorpora subagentes con nombres en menciones @, renderizado alt-screen sin parpadeo, soporte para Windows con PowerShell, y el Analytics API para métricas de uso organizacional.

anthropicclaude-codeprogramacionagente
Ver documentación