Bola to otázka času, no málokto čakal, že takého krátkeho. Je tu dohoda s firmou Palantir.

Kritické hlasy hovoriaetickosti, no bolo by naivné si myslieť, že AI obíde strategické, áno aj vojenské, potreby jednotlivých štátov. Po tom, ako sa z AI robí strašiak, budú tieto sektory paradoxne prvé zrelé na adopciu tejto technológie.

Anthropic má poskytnúť svoje modely bližšie nešpecifikovaným spravodajským a obranným agentúram. Claude AI bude mať nové pole pôsobnosti a celé to má bežať na Amazon Web Services.

Kritika od exGooglu

K tejto téme sa vyjadril aj bývalý spolu-šéf v Googli pre etiku v AI a na X napísal „Pozrite, ako im záleží na existenčnom riziku pre ľudstvo“. Claude AI by mal mať na starosti operácie s veľkým objemom komplexných dát, identifikovanie vzorcov a trendov v oblasti kontroly a prípravy dokumentov. Finálny dohľad by stále mali mať ľudia a tento faktor nemá byť z procesov vynechaný.

Hlavným investorom Claude je Amazon. Anthropic je pomerne čerstvá spoločnosť a jej model sa dá používať aj v Európe. Nemá také možnosti (najmä hlasovú komunikáciu) ako ChatGPT od OpenAI, no ak potrebujete analyzovanie dokumentov a vysoké rýchlosti (najmä v platenom režime za 20 USD mesačne), je to správny model.

Prečo sa hovorí o etike?

Firma Anthropic sa v minulosti veľmi vyhranila voči všeobecnému konsenzu o riziku AI. Chcela vstúpiť na trh ako spoločnosť s prístupom zameraným na etiku AI a bezpečnosť. Tým sa chcela líšiť od ChatGPT, no problém bezpečnosti a možného zneužitia podvrhmi je problém každého modelu, nielen tých od OpenAI. Nabeel S. Qureshi na X komentoval, že je to akoby ste sa chceli stať altruistami a tri roky po založení firmy idete s AI na vojenské fronty.

Zdroj: ArsTechnica

Prečítajte si aj:

Michal Reiter

Michal Reiter
Publikujem o dianí na internete, súkromí, bezpečnosti a testujem notebooky, smartfóny, audio produkty a ďalšie gadgety.

Máte pripomienku alebo otázku k článku? Napíšte nám na redakcia@touchit.sk alebo priamo autorovi článku. Ďakujeme.