DeepSeek выпустила модели V3.2, превосходящие GPT-5 в логике
Китайская корпорация DeepSeek представила новую серию больших языковых моделей под названием DeepSeek-V3.2, которая использует технологию разреженного внимания с целью повышения производительности. В соответствии с техническим документом, опубликованным разработчиками, старшая модель этой серии преодолела показатели GPT-5 от OpenAI в задачах, связанных с логикой и программированием.
Компания заявляет: "DeepSeek-V3.2-Speciale демонстрирует исключительные аналитические способности, достигнув уровня золотой медали на Международной математической олимпиаде (IMO 2025) и Международной олимпиаде по информатике (IOI 2025)".Инженеры компании утверждают, что интеграция механизма DSA (DeepSeek Sparse Attention) значительно снизила вычислительные издержки, при этом сохраняя точность обработки длинных контекстов. Согласно бенчмаркам, модель V3.2-Speciale достигла результатов, сравнимых с системой Gemini-3.0-Pro от Google, в то время как базовая версия V3.2 рассматривается как более эффективная альтернатива GPT-5.
Компания DeepSeek из Китая делает акцент на открытости своих решений: веса моделей V3.2 уже доступны исследовательскому сообществу.