A szőnyeg alá söpörné a ChatGPT-t az Amazon

Külön csapat tréningezi az új AI-modellt, amivel az Amazon messze lekörözné a ChatGPT-t.

Az Amazon már eddig is dollármilliárdokat fektetett az AI-versenybe, azonban nem csak attól reméli a felzárkózást, hogy bevásárolta magát az Anthropicba. Most dollármilliókat költ például arra, hogy egy nagyratörő LLM-et tréningezzen.

Ennek a neve Olympus, 2 billió paraméter jellemzi, vagyis ez lehet az egyik legnagyobb nagy nyelvi modell, mivel a GPT-4 is csak 1 billió paraméterrel dolgozik.

A projekt nem nyilvános, így a szivárogtatók is kockázatot vállaltak az információk felfedésével. Állítólag az új részleget Rohit Prasad vezeti, aki eddig az Alexa részleg irányítója volt. A szakembereket átcsoportosították, a kisebb modellek tréningezését, mint a Titan, elvégezték. Az AWS-en keresztül az Anthropic és az AI21 Labs szolgáltatásait is elérhetővé tették már. A saját modellekkel azonban vonzóbbá és erősebbé tennék az ajánlatukat. Persze ehhez több számítási teljesítmény és pénz kell, amit más területeket kárára biztosíthatnak. Azt már korábban jelezték, hogy míg az AI-ra több pénz jut, addig más területektől elvonnak.

Mindjárt itt van példának a zenei divízió, amelynél leépítések kezdődnek. Így a több koros kirúgások már több mint 27 ezer embert érintenek a cégnél.

Azóta történt

Előzmények