Microsoft представил облегченную нейросетевую языковую модель Phi-3 Mini, которая может конкурировать по результатам с GPT-3.5, несмотря на свои скромные размеры. Согласно описанию исследовательского документа, модель Phi-3 Mini была обучена на 3,3 триллионах лексем и имеет 3,8 миллиардов параметров.
Читать далее Microsoft представил облегченную языковую модель Phi-3 Mini — на уровне GPT-3.5