Hi-Tech

Anthropic uvodi verifikaciju identiteta za korisnike Claude AI u određenim slučajevima

Proveru identiteta sprovodiće Persona, a korisnici će morati da prilože ličnu ispravu i selfie

Foto Izvor: Pixabay / Stocksnap

Proveru identiteta sprovodiće Persona, a korisnici će morati da prilože ličnu ispravu i selfie

Anthropic, poznati startap iz oblasti veštačke inteligencije, započeo je uvođenje provere identiteta za korisnike svog AI chatbota Claude, ali samo u određenim slučajevima korišćenja. Kompanija je ovu promenu najavila 16. aprila 2026. godine, ne navodeći tačno za koje funkcionalnosti ili scenarije će biti potrebna identifikacija, već je istakla da će korisnici biti obavešteni kada pokušaju da pristupe određenim mogućnostima platforme.

Proces verifikacije sprovodiće Persona, servis specijalizovan za proveru identiteta koji već sarađuje sa velikim platformama poput OpenAI i Roblox-a. Kada se od korisnika zatraži verifikacija, moraće da prilože važeću ličnu ispravu sa fotografijom izdatom od strane nadležnog organa i da načine selfie kamerom na telefonu ili računaru. Sistem tada upoređuje fotografiju sa dokumenta i selfie kako bi potvrdio identitet korisnika.

Ova odluka izazvala je burne reakcije u IT zajednici i kod samih korisnika Claude AI chatbota. Mnogi se pitaju zbog čega je potrebna dodatna provera identiteta, naročito za korisnike koji su već platili pretplatu i uneli podatke sa kreditne kartice. Dodatnu zabrinutost izaziva i činjenica da je među investitorima servisa Persona i Founders Fund, čiji je suosnivač i predsednik kompanije Palantir, koja razvija rešenja za vladine agencije i poznata je po tehnologijama za nadzor i obradu podataka, uključujući FBI i CIA.

Iz Anthropic-a naglašavaju da sve slike i podaci koje korisnici prilože tokom verifikacije neće biti kopirani niti trajno skladišteni. Persona će imati strogo ograničene ugovorne obaveze u vezi sa korišćenjem podataka, a svi podaci su enkriptovani prilikom slanja i skladištenja. Kompanija je takođe posebno istakla da se podaci korisnika neće koristiti za treniranje AI modela niti će biti deljeni sa trećim stranama.

Iako detalji o konkretnim slučajevima kada će biti potrebna verifikacija još nisu objavljeni, ova promena pokazuje trend pojačane regulacije i nadzora nad upotrebom AI servisa. Anthropic time pokušava da balansira između bezbednosti, privatnosti korisnika i zahteva regulatora, ali izuzetno je važno da transparentno komunicira sa korisnicima i precizira zašto i kada je ova procedura neophodna.

Source: https://www.engadget.com/ai/anthropic-will-ask-claude-users-to-verify-their-identities-for-a-few-use-cases-115754092.html

Leave a Reply

Your email address will not be published. Required fields are marked *

Možda će vas interesovati

Biz Srbija

Ulazak Aman-a u vlasničku strukturu DIS-a menja konkurentsku sliku maloprodajnog sektora Srbije, detalji transakcije još nisu objavljeni

Biz Srbija

U maju četiri neradna dana, a za rad na praznik minimalno 110 odsto veća dnevnica, bez zakonskih kazni za poslodavce

Biz Srbija

Nova mera omogućava zaposlenima u Italiji plaćeno odsustvo radi brige o bolesnim životinjama, što ima ekonomske i socijalne implikacije na radna prava i tržište...

Hi-Tech

Kompletan vodič za praćenje muškog i ženskog NCAA turnira 2026. uz detalje o platformama i terminima

Copyright © 2026 RED MEDIA GROUP DOO

Exit mobile version