Microsoft je lansirao svoj najmanji AI model dosad

Autor: Redakcija
event 24.04.2024.
Foto: Shutterstock

Phi-3 Mini, obučen na „pričama za laku noć”, označava početak serije od tri kompaktna modela koje tvrtka planira objaviti.

Phi-3 Mini, sa svojih 3,8 milijardi parametara, obučen je na relativno manjem skupu podataka u usporedbi s većim jezičnim modelima poput GPT-ja 4. Trenutačno je dostupan na platformama kao što su Azure, Hugging Face i Ollama. Microsoftov plan uključuje naknadno lansiranje Phi-3 Small (7B parametara) i Phi-3 Medium (14B parametara). Parametri označavaju složenost uputa koje model može razumjeti.

Nadovezujući se na uspjeh modela Phi-2 plasiranog u prosincu, Microsoft jamči da Phi-3 nadmašuje svog prethodnika, pružajući odgovore slične modelima koji su deset puta veći od njega. Eric Boyd, korporativni potpredsjednik AI platforme Microsoft Azure, usporedio je mogućnosti Phi-3 Minija s onima većih modela poput GPT-ja 3.5, samo u kompaktnijem obliku.

U usporedbi sa svojim većim kolegama, manji AI modeli kao što je Phi-3 ne samo da su isplativiji za rad, već također pokazuju vrhunske performanse na osobnim uređajima kao što su pametni telefoni i prijenosna računala. Uz Phi, tvrtka je predstavila još jedan „lagani” AI model, , specijaliziran za rješavanje matematičkih zadataka.

Konkurentske tvrtke također se mogu pohvaliti vlastitim malim modelima umjetne inteligencije, ciljajući na različite zadatke, od sažimanja dokumenata do pomoći pri kodiranju. Googleovi Gemma 2B and 7B prilagođeni su jednostavnim chatbotovima i jezičnim zadacima, dok se Anthropicov Claude 3 Haiku ističe u čitanju opširnih istraživačkih radova i njihovom brzom sažimanju. Nedavno pokrenuta Meta Llama 3 8B služi kao chatbot i pomoćnik za kodiranje.

Boyd je otkrio da su programeri trenirali Phi-3 koristeći „kurikulum”, crpeći inspiraciju iz dječjih metoda učenja koje uključuju pojednostavljenu literaturu. Model se nadovezuje na znanje stečeno iz prethodnih iteracija, poboljšavajući svoje mogućnosti kodiranja i zaključivanja. Dok Phi-3 pokazuje stručnost u općem znanju, zaostaje za širinom koju nude modeli poput GPT-ja 4, koji se obučavaju na ogromnim skupovima podataka s interneta.

Mnoge tvrtke preferiraju manje modele poput Phi-3 zbog svojih prilagođenih primjena, osobito s obzirom na skromnu veličinu njihovih internih skupova podataka. Osim toga, njihovi minimalni računalni zahtjevi omogućuju pristupačnija rješenja, što ih čini praktičnim izborom za različite slučajeve uporabe.

Komentari

Zainteresirani ste za jedan od treninga?

Ispunite prijavu i javit ćemo Vam se u najkraćem mogućem roku!

Markoja d.o.o.
Sjedište:
Selska cesta 93
OIB: 10585552225

    Ispunite prijavu i javit ćemo Vam se u najkraćem mogućem roku!



    Sve vijesti

    Podržava