Разбираемся, почему будущее ИИ-агентов – не в одной мощной модели, а в слаженной работе специализированных систем, каждая из которых отвечает за свою область.
Лаборатория
Как научить робота не врезаться, когда он не знает, где находится: барьеры безопасности в мире неопределённости
Компьютерная наука
Новый метод позволяет автономным системам оставаться в безопасности, даже когда датчики «врут», а истинное положение робота скрыто за облаком шума и неточностей.
ИИ: События
Theorizer: как ИИ учится формулировать научные законы на основе тысяч статей
Исследования
Исследователи Allen Institute for AI создали систему Theorizer, которая анализирует массивы научных публикаций и пытается сформулировать из них общие закономерности.
ИИ: События
Claude научили писать CUDA-ядра и обучать открытые модели
Технический контекст • Разработка
Anthropic улучшила возможности Claude в работе с низкоуровневым кодом и передаче знаний другим моделям через новую функцию Extended Thinking.
НейроБлог
Когда алгоритмы учатся мечтать: нейросети на пороге научных загадок
Искусственный интеллект • Научные алгоритмы
Нейросети стали современными оракулами науки – они предсказывают структуры белков и ищут новые материалы, но способны ли они постичь тайны, которые человек не решил за столетия?
Стартап Overcut использует Azure для построения безопасных агентных систем, помогающих компаниям автоматизировать работу со сложной инфраструктурой разработки.