NEAR AI Cloud og privat chat er i drift! Vi bringer maskinvarebasert, verifiserbar personvern til AI-inferenser for bedrifter, utviklere og sluttbrukere. Personvern er et krav for bruker-eid AI. Ingen av dagens sentraliserte AI-produkter garanterer personvern for brukere og bedrifter. Vi går inn i en transformasjonsfase hvor AI vil ta beslutninger på våre vegne, kjøre på alle enhetene våre, og ha mer kontekst om livene våre. Men vi trenger at KI er på vår side og i tråd med vår suksess, ikke at bedriftsprofitt prioriteres.
Vi bør kunne bruke AI uten å eksponere alt vi gjør for selskapet som driver inferensen, eller til og med eieren av maskinvaren. Vi bør kunne stole på at chatboten vår ikke prøver å selge oss til høystbydende, og at dataene våre ikke er i fare for å lekke på en søkemotor. Dette gjelder også bedrifter, som ikke bare har krav til etterlevelse av kunders data, men også ønsker å få mest mulig ut av sin egen IP og ekspertdata.
NEAR AI benytter desentralisert konfidensiell maskinlæring (DCML), og behandler data i et fullt kryptert miljø med Intel TDX og NVIDIA Confidential Computing. Inferens er ende-til-ende-kryptert, hver interaksjon er privat, og både brukerdata og modellvekter dekrypteres kun inne i den konfidensielle enklaven, slik at ingen kan få tilgang til noen av dem. Hver slutning genererer en kryptografisk attestasjon som beviser at modellen kjørte i ekte, verifisert maskinvare med forventet kode, som kan valideres uavhengig.
Å låse opp ekte, verifiserbar personvern betyr at brukere og bedrifter endelig kan dele full kontekst med AI. Dette betyr bedre produkter, bedre resultater og bedre AI som er på vår side. For å lære mer om NEAR AI Cloud og privat chat, les . Jeg delte et nytt innlegg om hvorfor vi trenger privat AI:
2,84K