Bola to otázka času, no málokto čakal, že takého krátkeho. Je tu dohoda s firmou Palantir.
Kritické hlasy hovoria o etickosti, no bolo by naivné si myslieť, že AI obíde strategické, áno aj vojenské, potreby jednotlivých štátov. Po tom, ako sa z AI robí strašiak, budú tieto sektory paradoxne prvé zrelé na adopciu tejto technológie.
Anthropic má poskytnúť svoje modely bližšie nešpecifikovaným spravodajským a obranným agentúram. Claude AI bude mať nové pole pôsobnosti a celé to má bežať na Amazon Web Services.
Kritika od exGooglu
K tejto téme sa vyjadril aj bývalý spolu-šéf v Googli pre etiku v AI a na X napísal „Pozrite, ako im záleží na existenčnom riziku pre ľudstvo“. Claude AI by mal mať na starosti operácie s veľkým objemom komplexných dát, identifikovanie vzorcov a trendov v oblasti kontroly a prípravy dokumentov. Finálny dohľad by stále mali mať ľudia a tento faktor nemá byť z procesov vynechaný.
Hlavným investorom Claude je Amazon. Anthropic je pomerne čerstvá spoločnosť a jej model sa dá používať aj v Európe. Nemá také možnosti (najmä hlasovú komunikáciu) ako ChatGPT od OpenAI, no ak potrebujete analyzovanie dokumentov a vysoké rýchlosti (najmä v platenom režime za 20 USD mesačne), je to správny model.
Prečo sa hovorí o etike?
Firma Anthropic sa v minulosti veľmi vyhranila voči všeobecnému konsenzu o riziku AI. Chcela vstúpiť na trh ako spoločnosť s prístupom zameraným na etiku AI a bezpečnosť. Tým sa chcela líšiť od ChatGPT, no problém bezpečnosti a možného zneužitia podvrhmi je problém každého modelu, nielen tých od OpenAI. Nabeel S. Qureshi na X komentoval, že je to akoby ste sa chceli stať altruistami a tri roky po založení firmy idete s AI na vojenské fronty.
Zdroj: ArsTechnica
Prečítajte si aj: