
Alibaba представила новую модель логических рассуждений QwQ-32B, которая уменьшает вычислительные затраты и развивает возможности предыдущих версий. Она способна обрабатывать контекст до 131 072 токенов, решать математические и кодовые задачи, и достигает высокой производительности при меньших вычислительных затратах. QwQ-32B потребляет всего 24 ГБ видеопамяти, в то время как аналогичная по качеству модель DeepSeek-R1 требует более 1500 ГБ. Новинка доступна разработчикам по лицензии Apache 2.0.
Источник: @htech_plus