Az Amazon már eddig is dollármilliárdokat fektetett az AI-versenybe, azonban nem csak attól reméli a felzárkózást, hogy bevásárolta magát az Anthropicba. Most dollármilliókat költ például arra, hogy egy nagyratörő LLM-et tréningezzen.
Hirdetés
Ennek a neve Olympus, 2 billió paraméter jellemzi, vagyis ez lehet az egyik legnagyobb nagy nyelvi modell, mivel a GPT-4 is csak 1 billió paraméterrel dolgozik.
A projekt nem nyilvános, így a szivárogtatók is kockázatot vállaltak az információk felfedésével. Állítólag az új részleget Rohit Prasad vezeti, aki eddig az Alexa részleg irányítója volt. A szakembereket átcsoportosították, a kisebb modellek tréningezését, mint a Titan, elvégezték. Az AWS-en keresztül az Anthropic és az AI21 Labs szolgáltatásait is elérhetővé tették már. A saját modellekkel azonban vonzóbbá és erősebbé tennék az ajánlatukat. Persze ehhez több számítási teljesítmény és pénz kell, amit más területeket kárára biztosíthatnak. Azt már korábban jelezték, hogy míg az AI-ra több pénz jut, addig más területektől elvonnak.
Mindjárt itt van példának a zenei divízió, amelynél leépítések kezdődnek. Így a több koros kirúgások már több mint 27 ezer embert érintenek a cégnél.