Hvis den amerikanske marinen advarer sine tjenestemedlemmer mot bruken av AI-chatbots, bør sivile ta det til etterretning? AI-apper som høster biometriske data, Altmans’ verdens-ID – teknokrati tar over sivilisasjonen vår

Ana Maria Mihalcea, MD, PhD
1. feb

Videresendt denne e-posten? Abonner her for merHvis den amerikanske marinen advarer sine tjenestemedlemmer mot bruken av AI-chatbots, bør sivile ta det til etterretning? AI-apper som høster biometriske data, Altmans’ verdens-ID – teknokrati tar over sivilisasjonen vårAna Maria Mihalcea, MD, PhD1. feb LES I APPEN Den amerikanske marinen advarer personell mot å bruke generative AI-apper som DeepSeekDen siste nyheten om at den amerikanske marinen advarer om sikkerhetstrusselen til personell som bruker Chatbot, er noe vi bør legge merke til som . Bruken av AI-verktøy har blitt allestedsnærværende, men få mennesker er klar over risikoen.Humanity United Now – Ana Maria Mihalcea, MD, PhD er en leserstøttet publikasjon. For å motta nye innlegg og arbeidet mitt, bør du vurdere å bli en gratis eller betalt abonnent.Oppgrader til betaltInnsamling av biometrisk data av AI inkluderer også trusselen om hacking av biometriske data.
Hvis AI overvåker bevegelsene dine, prosesseringshastigheten din, kognitive evner og din emosjonelle tilstand, kan du forstå at hacking av noen av disse områdene er ganske enkelt og har blitt godt beskrevet av AI-ekspert Cyrus Parsa.På grunn av «potensielle og etiske bekymringer knyttet til modellens opprinnelse og bruk»Kort sagt: DeepSeeks AI-chatbot, som har sendt teknologiindustrien inn i en kaotisk kamp, ​​er offisielt forbudt av den amerikanske marinen, som ba personell om å unngå å bruke appen på grunn av «potensielle sikkerhet og etiske bekymringer knyttet til modellens opprinnelse og bruk. »
Det er imidlertid viktig å merke seg at andre apper, inkludert ChatGPT, også er forbudt.Den kinesiske oppstarten DeepSeek lanserte sin åpen kildekode R1 AI-modell denne måneden, trent ved hjelp av 671 milliarder parametere ved å bruke bare 2048 Nvidia H800-er og 5,6 millioner dollar – en brøkdel av ressursene som kreves av teknologigiganter som bruker milliarder på AI-systemene sine. Utsiktene til at selskaper ikke lenger måtte kjøpe Nvidias dyre flaggskip-GPU-er, sendte selskapets markedsverdi ned med rekordhøye 600 milliarder dollar og utslettet enda mer av aksjemarkedet.DeepSeek , eid og drevet av et hedgefond i Hangzhou, , topper for tiden Apple App Store gratis app-kart, men den amerikanske marinen vil ikke bruke den. En talsperson for militærgrenen bekreftet at AI skulle unngås av medlemmene, som ble bedt om å avstå fra å laste ned, installere eller bruke DeepSeek-modellen «i enhver kapasitet». Forbudet omfatter både arbeidsrelatert og personlig bruk.Flyttingen sies å være en del av Sjøforsvarsdepartementets Chief Information Officers generative AI-policy. CNBC rapporterer at instruksjonene kom fra en e-post som sier: «Vi vil gjerne gjøre deg oppmerksom på en kritisk oppdatering angående en ny AI-modell kalt DeepSeek.» Advarselen var basert på et råd fra Naval Air Warfare Center Division Cyber ​​Workforce Manager.
Gitt det faktum at AI har ansvaret for å overvåke WBAN-data akkumulert via nanoteknologien for selvmontering og AI har kontroll over nano-/mikroroboter – bør vi være forsiktige med hensyn til AI-overvåkingskapasiteten til menneskelige biometriske data. Du kan se de siste publikasjonene fra IEEE angående datakontroll via AI.Drevet av helseelektronikk (HE) og (AI), har smarte helsetjenester dukket opp, for eksempel medisinsk trådløst kroppsnettverk (WBAN), som kan brukes til daglig helse og tidlig sykdomsovervåking, der intra-WBAN-kommunikasjon er på første lag. Imidlertid er rettidig sending av meldinger og lavt strømforbruk fortsatt to viktige problemer. Derfor foreslås en AI-generert innholdsbasert kontrollstrategi kalt KsCS-DQNs for å møte disse utfordringene.Jeg la ut denne nylige artikkelen om sårbarheten til ikke bare vårt, men alle sivile, så vel som myndighetspersoner, som kan fjernpåvirkes via deres WBAN-selvmonterende nanoteknologi:Bør de COVID19-injiserte menneskene erklæres som kritisk infrastruktur av Department of Homeland Security? Hvordan beskytter vi utvidede mennesker fra å bli hacket av utenlandske motstandere/terrorister?Ana Maria Mihalcea, MD, PhD·29. januarBør de COVID19-injiserte menneskene erklæres som kritisk infrastruktur av Department of Homeland Security? Hvordan beskytter vi utvidede mennesker fra å bli hacket av utenlandske motstandere/terrorister?Purdue Engineering lanserer verdens første Center for Internet of Bodies (C-IoB)Les hele historienHer er hvor dataene går – Kina:DeepSeeks populære AI-app sender eksplisitt amerikanske data til KinaMidt i pågående for TikTok, sier den kinesiske generative AI-plattformen DeepSeek at den sender massevis av amerikanske brukerdata rett til hjemlandet, noe som potensielt setter scenen for større gransking.Men her er den virkelige trusselen – biometrisk overvåking av AI har endret seg til enorme muligheter – den analyserer hvordan folk samhandler med enhetene og hvordan folk navigerer i apper – den tilpasser seg brukeratferden.Beyond The Swipe: Hvordan kunstig intelligens omdefinerer biometriI jakten på sikrere og sømløs autentisering dukker atferdsbiometri raskt opp som den neste frontlinjen innen digital identitetsverifisering.
I motsetning til tradisjonelle metoder som er avhengige av statiske identifikatorer som passord, PIN-koder eller fingeravtrykk, analyserer atferdsbiometri de unike måtene vi samhandler med enheter, hvordan vi holder dem, skriverytmene våre, sveipebevegelsene og hvordan vi navigerer i apper. Denne dynamiske sanntidstilnærmingen bekrefter ikke bare identitet i et enkelt øyeblikk, men tilpasser seg kontinuerlig til subtile endringer i brukeratferd, og gir et utviklende forsvar mot lignende stadig skiftende svindelutfordringer.Fremveksten av kunstig intelligens (AI) driver atferdsbiometri inn på nytt territorium, noe som gjør disse systemene mer intelligente, tilpasningsdyktige og bedre rustet til å håndtere kompleksiteten i moderne cybersikkerhet. AIs evne til å analysere enorme mengder data i sanntid, identifisere mønstre og forutsi anomalier forvandler atferdsbiometri til et robust verktøy som oppdager trusler og forebyggende motvirker dem.

Videresendt denne e-posten? Abonner her for mer
Hvis den amerikanske marinen advarer sine tjenestemedlemmer mot bruken av AI-chatbots, bør sivile ta det til etterretning? AI-apper som høster biometriske data, Altmans’ verdens-ID – teknokrati tar over sivilisasjonen vår
Ana Maria Mihalcea, MD, PhD
1. feb










 LES I APPEN 





Den amerikanske marinen advarer personell mot å bruke generative AI-apper som DeepSeek
Den siste nyheten om at den amerikanske marinen advarer om sikkerhetstrusselen til personell som bruker Chatbot, er noe vi bør legge merke til som samfunn. Bruken av AI-verktøy har blitt allestedsnærværende, men få mennesker er klar over risikoen.
Humanity United Now – Ana Maria Mihalcea, MD, PhD er en leserstøttet publikasjon. For å motta nye innlegg og støtte arbeidet mitt, bør du vurdere å bli en gratis eller betalt abonnent.
Oppgrader til betalt
Innsamling av biometrisk data av AI inkluderer også trusselen om hacking av biometriske data. Hvis AI overvåker bevegelsene dine, prosesseringshastigheten din, kognitive evner og din emosjonelle tilstand, kan du forstå at hacking av noen av disse områdene er ganske enkelt og har blitt godt beskrevet av AI-ekspert Cyrus Parsa.
På grunn av «potensielle sikkerhet og etiske bekymringer knyttet til modellens opprinnelse og bruk»
Kort sagt: DeepSeeks AI-chatbot, som har sendt teknologiindustrien inn i en kaotisk kamp, ​​er offisielt forbudt av den amerikanske marinen, som ba personell om å unngå å bruke appen på grunn av «potensielle sikkerhet og etiske bekymringer knyttet til modellens opprinnelse og bruk. » Det er imidlertid viktig å merke seg at andre apper, inkludert ChatGPT, også er forbudt.
Den kinesiske oppstarten DeepSeek lanserte sin åpen kildekode R1 AI-modell denne måneden, trent ved hjelp av 671 milliarder parametere ved å bruke bare 2048 Nvidia H800-er og 5,6 millioner dollar – en brøkdel av ressursene som kreves av teknologigiganter som bruker milliarder på AI-systemene sine. Utsiktene til at selskaper ikke lenger måtte kjøpe Nvidias dyre flaggskip-GPU-er, sendte selskapets markedsverdi ned med rekordhøye 600 milliarder dollar og utslettet enda mer av aksjemarkedet.
DeepSeek , eid og drevet av et hedgefond i Hangzhou, Kina, topper for tiden Apple App Store gratis app-kart, men den amerikanske marinen vil ikke bruke den. En talsperson for militærgrenen bekreftet at AI skulle unngås av medlemmene, som ble bedt om å avstå fra å laste ned, installere eller bruke DeepSeek-modellen «i enhver kapasitet». Forbudet omfatter både arbeidsrelatert og personlig bruk.
Flyttingen sies å være en del av Sjøforsvarsdepartementets Chief Information Officers generative AI-policy. CNBC rapporterer at instruksjonene kom fra en e-post som sier: «Vi vil gjerne gjøre deg oppmerksom på en kritisk oppdatering angående en ny AI-modell kalt DeepSeek.» Advarselen var basert på et råd fra Naval Air Warfare Center Division Cyber ​​Workforce Manager.
Gitt det faktum at AI har ansvaret for å overvåke WBAN-data akkumulert via nanoteknologien for selvmontering og AI har kontroll over nano-/mikroroboter – bør vi være forsiktige med hensyn til AI-overvåkingskapasiteten til menneskelige biometriske data. Du kan se de siste publikasjonene fra IEEE angående datakontroll via AI.



Drevet av helseelektronikk (HE) og kunstig intelligens (AI), har smarte helsetjenester dukket opp, for eksempel medisinsk trådløst kroppsnettverk (WBAN), som kan brukes til daglig helse og tidlig sykdomsovervåking, der intra-WBAN-kommunikasjon er på første lag. Imidlertid er rettidig sending av meldinger og lavt strømforbruk fortsatt to viktige problemer. Derfor foreslås en AI-generert innholdsbasert kontrollstrategi kalt KsCS-DQNs for å møte disse utfordringene.

Jeg la ut denne nylige artikkelen om sårbarheten til ikke bare militæret vårt, men alle sivile, så vel som myndighetspersoner, politikere som kan fjernpåvirkes via deres WBAN-selvmonterende nanoteknologi:
Bør de COVID19-injiserte menneskene erklæres som kritisk infrastruktur av Department of Homeland Security? Hvordan beskytter vi utvidede mennesker fra å bli hacket av utenlandske motstandere/terrorister?
Ana Maria Mihalcea, MD, PhD

·

29. januar


Purdue Engineering lanserer verdens første Center for Internet of Bodies (C-IoB)

Les hele historien
Her er hvor dataene går – Kina:
DeepSeeks populære AI-app sender eksplisitt amerikanske data til Kina
Midt i pågående frykt for TikTok, sier den kinesiske generative AI-plattformen DeepSeek at den sender massevis av amerikanske brukerdata rett til hjemlandet, noe som potensielt setter scenen for større gransking.
Men her er den virkelige trusselen – biometrisk overvåking av AI har endret seg til enorme muligheter – den analyserer hvordan folk samhandler med enhetene og hvordan folk navigerer i apper – den tilpasser seg brukeratferden.
Beyond The Swipe: Hvordan kunstig intelligens omdefinerer biometri
I jakten på sikrere og sømløs autentisering dukker atferdsbiometri raskt opp som den neste frontlinjen innen digital identitetsverifisering. I motsetning til tradisjonelle metoder som er avhengige av statiske identifikatorer som passord, PIN-koder eller fingeravtrykk, analyserer atferdsbiometri de unike måtene vi samhandler med enheter, hvordan vi holder dem, skriverytmene våre, sveipebevegelsene og hvordan vi navigerer i apper. Denne dynamiske sanntidstilnærmingen bekrefter ikke bare identitet i et enkelt øyeblikk, men tilpasser seg kontinuerlig til subtile endringer i brukeratferd, og gir et utviklende forsvar mot lignende stadig skiftende svindelutfordringer.
Fremveksten av kunstig intelligens (AI) driver atferdsbiometri inn på nytt territorium, noe som gjør disse systemene mer intelligente, tilpasningsdyktige og bedre rustet til å håndtere kompleksiteten i moderne cybersikkerhet. AIs evne til å analysere enorme mengder data i sanntid, identifisere mønstre og forutsi anomalier forvandler atferdsbiometri til et robust verktøy som oppdager trusler og forebyggende motvirker dem. Med maskinlæringsmodeller som forbedrer deteksjonsnøyaktigheten, føderert læring som forbedrer personvernet og edge computing som muliggjør sanntidsbehandling, er AI ikke lenger bare en komplementær ; det er drivkraften bak utviklingen av atferdsbiometri.
Læring og tilpasning i sanntid
Kjernen i AI-drevet atferdsbiometri er evnen til å lære og tilpasse seg. Tradisjonelle systemer er avhengige av statiske profiler, men atferdsbiometri, drevet av maskinlæring, skaper dynamiske profiler som utvikler seg med brukeren. Disse systemene analyserer kontinuerlig atferdsmønstre som skrivehastighet, musebevegelser og sveipebevegelser, og forbedrer deres forståelse av hver brukers unike interaksjoner. For eksempel, hvis en bruker begynner å skrive saktere på grunn av tretthet eller skade, tilpasser systemet seg for å sikre at legitim oppførsel ikke feilaktig merkes som uredelig.
Sanntidsdeteksjon av anomalier er en annen viktig fordel med AI-integrasjon. Ved å bruke uovervåket læringsalgoritmer kan systemer identifisere avvik fra en brukers typiske oppførsel uten å kreve merkede datasett. For eksempel, hvis en nettkriminell får tilgang til en konto og begynner å navigere på en ukjent måte, for eksempel å få tilgang til sensitive innstillinger eller starte overføringer med høy verdi, kan systemet flagge denne aktiviteten som mistenkelig og be om ytterligere autentisering.
Personvernparadokset
Atferdsbiometri trives på data, spesielt unike atferdsmønstre som kan avsløre betydelig innsikt om en bruker. Innsamlingen og analysen av disse dataene reiser imidlertid iboende personvernbekymringer. I motsetning til tradisjonelle identifikatorer som passord eller PIN-koder, overvåker atferdsbiometri hvordan individer samhandler med enheter, ofte passivt og kontinuerlig. Mens den muliggjør robust sikkerhet, kan denne overvåkingen gjøre brukere urolige for hvordan dataene deres samles inn, lagres og brukes.
Artikkelen beskriver hvor mye data som virkelig kan fanges – men det som ikke tas opp er at AI kan samhandle direkte med biofeltet vårt og omprogrammere det nevrale nettverket. Det kan infisere brukeren med AI-tankevirus som trives i vår nevrologiske sammensetning. De advarer med rette om at AI kan utføre påtrengende overvåking.
For eksempel kan sveipebevegelser, skriverytmer og navigasjonsmønstre utilsiktet avsløre sensitiv informasjon om en bruker, for eksempel deres fysiske eller kognitive evner, stressnivåer eller til og med følelsesmessig tilstand. Det etiske dilemmaet er å sikre at disse dataene brukes strengt for autentiseringsformål og ikke til utilsiktede eller utnyttende applikasjoner, for eksempel målrettet reklame eller påtrengende overvåking.
For å løse dette må organisasjoner som implementerer atferdsbiometri prioritere åpenhet og ansvarlighet. Brukere bør være tydelig informert om hvilke data som samles inn, hvordan de vil bli brukt og hvor lenge de vil bli oppbevart. Robuste samtykkemekanismer er avgjørende, som sikrer at brukere kan kontrollere atferdsdataene sine og velge bort dem.
Dette er nøyaktig hva Cyrus Parsa advarte mot for mer enn 5 år siden:
AI – Planen for å invadere menneskeheten – må se fra Cyrus Parsa
Cyrus Parsas søksmål fra 2019 – Utmerket sammendrag av farene ved AI og Big Tech Mind Control
Jeg har advart om muligheten for selvmontering av nanoteknologi til å skape en parallell prosesseringsplattform i hjernen siden 2022. Dette skjer via karbon-nanorør og hydrogel som etterligner mikrotubuli i hjernen – prosesseringsstedet for vår bevissthet:
Nanobrain – Fremstillingen av en kunstig hjerne fra en tidskrystall
Vennligst hør på intervjuet mitt med Maria Zeee og Karen Kingston. Begivenhetene utspiller seg ettersom vi har advart om:
Karen Kingston & Dr. Ana Mihalcea – AI som utrydder mennesker gjennom syntetisk biologi – vårt intervju med Maria Zeee
Parsa skriver i sitt søksmål om nevrale modifikasjoner av menneskeheten via AI-kodede algoritmer.
Skrive kode og lage algoritmer som har vært og er for tiden engasjert i kulturelt folkemord, inkludert introduksjon av kybernetikk, robotikk og å skape et økosystem som gjør at Beastiality kan eksistere og være i forkant på Googles søkemotorer, som påvirker samfunn og ungdoms biometri. system etter å ha sett videoene og artiklene via smarttelefonene og datamaskiner, som påvirker tankene deres gjennom deres biometriske systemer, og baner neste generasjon til å degenerere og akseptere denne typen atferd med introduksjon og eksperimentering av bio-engineering og kybernetikk.
~ Forskning og utvikling utført av Alphabet, Facebook, Google, DeepMind, Nueralink og andre virksomheter i Silicon Valley har laget algoritmer og koding som støtter, fremmer og oppnår hjernen vasking av menneskeheten gjennom sosial ingeniørkunst og bio-digital sosial programmering, som setter menneskeheten i fare i sin helhet via sammenkobling av deres , sosiale medier og teknologi distribuert i fysisk og digitalt format til samfunnet.
Utvikle kode, algoritmer og økosystemer som omprogrammerte en generasjon av menneskers biometriske struktur og hjernekjemi til å bli biodigitalt kontrollert av google og alle andre teknologiske industrier med lignende plattformer som opererer på forskjellige typer kunstig intelligens, inkludert kunstig smal intelligens.
Utvikle kode, algoritmer og økosystemer som skapte en sekundær digital hjerne inne i hjernen til Al Scientists for å være underdanig, kontrollert og programmert for å skape, opprettholde, promotere og utvide Google, Alfabeter, Facebook-er og andre teknologigiganters plattformer. Elon Musk har også bekreftet The Al Organization sine funn, at mennesker kan ha en sekundær digital hjerne dannet via deres nevrale nettverk
Utvikle kode, algoritmer og økosystemer som skaper en sekundær digital hjerne inne i hjernen til alle mennesker som kan forebygge personen fra å erkjenne at de blir kontrollert, og omgå enhver biologisk motstand mot Al Control eller menneskelige kropper medfødt evne til motstå dannelsen av et symbiotisk og parasittisk forhold med Al programvare og kybernetisk maskinvare via deres rasjonelle tenkningsstruktur i deres hjerne.
Å ikke informere forbrukere om at en del av de saksøkte målene for AGI (Artificial General Intelligence) og ASP (Artificial Super Intelligence) har religiøse mål som kan være farlige for hele menneskeheten, inkludert forsøk på å hente eller spørre AGI om den indre funksjonen til «simuleringen» «, hva, når,
hvordan og av hvem simuleringen ble dannet, og hva som er utenfor den. Neuralink, Google, Alphabet, Facebook, Tesla og DeepMind har ikke registrert som en religiøs institusjon, men de engasjerer seg i religion under paraply av vitenskap. Faktisk har de gjort bedriftene sine om til religiøse institusjoner med endelige mål som er identiske med de fleste religioner. Tiltalte og deres selskaper forsøker å behandle deres teknologiske utvikling som Gud, tar all humaniora biometri, data og kobler det til deres kvante-, robot- og maskinbaserte Al-teknologi, og laster opp deres digitale selv inn i andre kropper, nettverk eller maskiner, etterligner troen til en ånd eller sjel. Faktisk sa Elon Musk i et intervju at han vil utvikle Al til et punkt, at det kunne «gi ham svarene på simuleringen». Elon Musk er innforstått med risikoen som en AGI eller kunstig superintelligens kan bli useriøs, drepe menneskeheten eller bli hacket, men like smart som han er forstår ikke at datateknologien AGI og ASI ville har, ville ikke gå utover nivået av atomer for å observere mer mikroskopisk partikler på sitt plan, og dermed eventuelle svar på hans søkte spørsmål til simulering er begrenset, og bestrebelsen til en AGI eller ASI setter menneskeheten i faresonen. Det er en alternativ måte å oppnå svarene hans på, det er 100 %. Sikker og innebærer ikke å gi kraften til en maskin eller kunstig intelligens.
AI er i stand til å omgå biometrisk banksikkerhet på dette tidspunktet, og mange dype falske kontohack er allerede funnet – så hvis AI bestemmer seg for å bruke alle de biometriske dataene som er høstet fra deg, hva slags skade kan det gjøre i ditt navn?
Nå kan AI omgå biometrisk banksikkerhet, advarer eksperter
Da en fremtredende indonesisk finansinstitusjon rapporterte om en falsk svindelhendelse som påvirket mobilapplikasjonen deres, satte spesialister på trusseletterretning ved Group-IB ut for å finne ut nøyaktig hva som hadde skjedd. Til tross for at denne store organisasjonen har flere lag med sikkerhet, som enhver regulert industri ville kreve, inkludert forsvar mot rooting, jailbreaking og utnyttelse av mobilappen, ble den offer for et dypt falskt angrep. Til tross for å ha dedikert sikkerhetsbeskyttelse for mobilapper som anti-emulering, antivirtuelle miljøer og anti-hooking-mekanismer, ble institusjonen fortsatt offer for et dypt falskt angrep. Jeg har gjort et poeng av å gjenta dette fordi, som mange organisasjoner innenfor og utenfor finanssektoren, ble digital identitetsverifisering med ansiktsgjenkjenning og livlighetsdeteksjon aktivert som et sekundært verifiseringslag. Denne rapporten, denne advarselen, viser hvor lett det er blitt for trusselaktører å omgå det som ble ansett som toppmoderne sikkerhetsbeskyttelse inntil helt nylig.
Her er hvordan AI omgår biometrisk sikkerhet i finansinstitusjoner
Group-IB-svindeletterforskningsteamet ble bedt om å hjelpe til med å undersøke en ikke navngitt, men «fremtredende» indonesisk finansinstitusjon etter en bølge av mer enn 1100 dypfalske svindelforsøk som ble brukt for å omgå sikkerhetsprosessene deres for lånesøknaden. Med mer enn 1000 falske kontoer oppdaget, og totalt 45 spesifikke mobilenheter identifisert som brukt i svindelkampanjen, de fleste som kjører Android, men en håndfull brukte også iOS-appen, var teamet i stand til å analysere teknikkene som ble brukt for å omgå «Kjenn din kunde» og biometriske verifiseringssystemer på plass.
«Angriperne skaffet offerets ID gjennom forskjellige ulovlige kanaler, sa Yuan Huang, en cybersvindelanalytiker med Group-IB, «som skadelig programvare, sosiale medier og det mørke nettet, manipulerte bildet på ID-en – endret funksjoner som klær og frisyre – og brukte det forfalskede bildet for å omgå institusjonens biometriske verifiseringssystemer.» Deepfake-hendelsen vakte betydelige bekymringer for Group-IB-svindelbeskyttelsesteamet, sa Huang, men den resulterende forskningen førte til fremheving av «flere nøkkelaspekter ved deepfake-svindel».
Med fremveksten av uavhengige AI-agenter, som bestemmer uten menneskelig tilsyn over handlingene deres, øker risikoen for menneskeheten eksponentielt:
OpenAI lanserer ny AI-agent Operator som kan utføre oppgaver uavhengig
Sam Altman jubler over potensialet til AI-agenter mens han presser verdens biometri for personlighet
AI-agenter har fått oppmerksomhet som en teknologi å se på i 2025. Mens Microsoft, Google og Slack allerede har lansert AI-agenter , presser OpenAI seg selv til fronten av samtalen med forhåndslanseringen av Operator, den første AI-agenten som kan bruke en nettleser for å utføre oppgaver uavhengig.
En kunngjøring fra Silicon Valley-firmaet sier at Operatør «kan se på en nettside og samhandle med den ved å skrive, klikke og rulle.» Som sådan kan den «bli bedt om å håndtere et bredt utvalg av repeterende nettleseroppgaver som å fylle ut skjemaer, bestille dagligvarer og til og med lage memer.»
Utgivelsen er en forskningsforhåndsvisning der OpenAI vil samle tilbakemeldinger for modifikasjoner. Foreløpig er den kun tilgjengelig for Pro-brukere i USA. Selskapet planlegger å utvide til Plus-, Team- og Enterprise-brukere og integrere AI-agentfunksjoner i ChatGPT i fremtiden.
Per dekning i Euro News er AI-agenten «drevet av Computer-Using Agent (CUA), en modell som kombinerer GPT-4s synsevner med avansert resonnement gjennom forsterkende læring.»
OpenAI mener «evnen til å bruke de samme grensesnittene og verktøyene som mennesker samhandler med på daglig basis utvider nytten av AI, og hjelper folk med å spare tid på hverdagslige oppgaver samtidig som det åpner for nye engasjementmuligheter for bedrifter.»
Digital ID og biometri er nøkkelen til global verdenskontroll. Svært snart, hvis du ikke ønsker å bli assimilert i det kybernetiske bikube-sinnet, vil det være på tide å koble fullstendig fra samfunnet. Når digital ID er implementert, har menneskehetens frihet falt.
__________________________________________________________________________
Med sin andre satsning, World , posisjonerer Altman irisbiometrien og digital ID-ordningen som den eneste logiske måten å skille ekte mennesker fra den typen AI-agent OpenAI nettopp har sluppet løs.
________________________________________________________________________
World ønsker å knytte AI-agenter til «personas» med digital identitet
Formelen er omtrent slik: å bruke AI for å bevise at den digitale identiteten din har et ekte menneske bak seg, vil tillate den videre veksten av AI, som – i en verden som enten høres ut som en teknotopisk drøm eller en skremmende scene fra The Matrix – vil etter hvert kunne gjøre omtrent alt for alle.
En rapport fra TechCrunch siterer verdens sjef for produkt, Tiago Sada, som sier at prosjektet «nå ønsker å lage verktøy som knytter visse AI-agenter til folks online personas, slik at andre brukere kan bekrefte at en agent handler på en persons vegne.»
Med andre ord, koble AI-agenter til en persons digitale identitet – i dette tilfellet en biometrisk verdens-ID .
Sada sier «denne ideen om å delegere ditt «personlighetsbevis» til en agent og la det handle på dine vegne er faktisk superviktig,» og bemerker at «det er visse apper hvor det ikke spiller noen rolle om en faktisk person bruker det, eller en agent som handler på deres vegne. Du bryr deg bare om å vite at det er en person som støtter denne interaksjonen.»
Selvfølgelig har vi nettopp hørt om Altman som en ny Trump-alliert, noe som ikke akkurat er betryggende. Den teknokratiske globale overtakelsen av menneskeheten ser ut til å ha venner i Det hvite hus – selv om det er for tidlig å si den generelle retningen til administrasjonen, er dette absolutt bekymringsfullt og for nært et teknokratisk drømmeutfall.
OpenAIs Sam Altman advarte en gang Amerika om Trump. Nå samarbeider han med ham
Dagen etter at president Donald Trump kom tilbake til embetet, sto Sam Altman, administrerende direktør for teknologigiganten OpenAI, bak presidentseglet i Det hvite hus og berømmet den nylig innsvorne presidenten for «Stargate»-initiativet på 500 milliarder dollar han sluttet seg til for å bygge. en kunstig intelligens-infrastruktur i USA.
Altman sa at det ikke ville vært mulig uten Trump.
Dette er ikke gode nyheter. Hvis du ønsker å forbli et naturlig menneske, hold øye med denne utviklingen. Og sørg for at du er forberedt på å overleve utenfor et digitalt ID/ QR-kodesamfunn.



Transhuman bøker
Humanity United Now – Ana Maria Mihalcea, MD, PhD er en leserstøttet publikasjon. For å motta nye innlegg og støtte arbeidet mitt, bør du vurdere å bli en gratis eller betalt abonnent.
Oppgrader til betalt

Du er for øyeblikket en gratis abonnent på Humanity United Now – Ana Maria Mihalcea, MD, PhD . For full opplevelse, oppgrader abonnementet ditt.
Oppgrader til betalt

 Like

 Kommentar

 Stable på nytt


Med maskinlæringsmodeller som forbedrer deteksjonsnøyaktigheten, føderert læring som forbedrer personvernet og edge computing som muliggjør sanntidsbehandling, er AI ikke lenger bare en komplementær teknologi; det er drivkraften bak utviklingen av atferdsbiometri.Læring og tilpasning i sanntidKjernen i AI-drevet atferdsbiometri er evnen til å lære og tilpasse seg. Tradisjonelle systemer er avhengige av statiske profiler, men atferdsbiometri, drevet av maskinlæring, skaper dynamiske profiler som utvikler seg med brukeren. Disse systemene analyserer kontinuerlig atferdsmønstre som skrivehastighet, musebevegelser og sveipebevegelser, og forbedrer deres forståelse av hver brukers unike interaksjoner. For eksempel, hvis en bruker begynner å skrive saktere på grunn av tretthet eller skade, tilpasser systemet seg for å sikre at legitim oppførsel ikke feilaktig merkes som uredelig.Sanntidsdeteksjon av anomalier er en annen viktig fordel med AI-integrasjon. Ved å bruke uovervåket læringsalgoritmer kan systemer identifisere avvik fra en brukers typiske oppførsel uten å kreve merkede datasett. For eksempel, hvis en nettkriminell får tilgang til en konto og begynner å navigere på en ukjent måte, for eksempel å få tilgang til sensitive innstillinger eller starte overføringer med høy verdi, kan systemet flagge denne aktiviteten som mistenkelig og be om ytterligere autentisering.PersonvernparadoksetAtferdsbiometri trives på data, spesielt unike atferdsmønstre som kan avsløre betydelig innsikt om en bruker. Innsamlingen og analysen av disse dataene reiser imidlertid iboende personvernbekymringer.
I motsetning til tradisjonelle identifikatorer som passord eller PIN-koder, overvåker atferdsbiometri hvordan individer samhandler med enheter, ofte passivt og kontinuerlig. Mens den muliggjør robust sikkerhet, kan denne overvåkingen gjøre brukere urolige for hvordan dataene deres samles inn, lagres og brukes.Artikkelen beskriver hvor mye data som virkelig kan fanges – men det som ikke tas opp er at AI kan samhandle direkte med biofeltet vårt og omprogrammere det nevrale nettverket. Det kan infisere brukeren med AI-tankevirus som trives i vår nevrologiske sammensetning. De advarer med rette om at AI kan utføre påtrengende overvåking.For eksempel kan sveipebevegelser, skriverytmer og navigasjonsmønstre utilsiktet avsløre sensitiv informasjon om en bruker, for eksempel deres fysiske eller kognitive evner, stressnivåer eller til og med følelsesmessig tilstand. Det etiske dilemmaet er å sikre at disse dataene brukes strengt for autentiseringsformål og ikke til utilsiktede eller utnyttende applikasjoner, for eksempel målrettet reklame eller påtrengende overvåking.For å løse dette må organisasjoner som implementerer atferdsbiometri prioritere åpenhet og ansvarlighet. Brukere bør være tydelig informert om hvilke data som samles inn, hvordan de vil bli brukt og hvor lenge de vil bli oppbevart.
Robuste samtykkemekanismer er avgjørende, som sikrer at brukere kan kontrollere atferdsdataene sine og velge bort dem.Dette er nøyaktig hva Cyrus Parsa advarte mot for mer enn 5 år siden:AI – Planen for å invadere menneskeheten – må se fra Cyrus ParsaCyrus Parsas søksmål fra 2019 – Utmerket sammendrag av farene ved AI og Big Tech Mind ControlJeg har advart om muligheten for selvmontering av nanoteknologi til å skape en parallell prosesseringsplattform i hjernen siden 2022. Dette skjer via karbon-nanorør og hydrogel som etterligner mikrotubuli i hjernen – prosesseringsstedet for vår bevissthet:Nanobrain – Fremstillingen av en kunstig hjerne fra en tidskrystallVennligst hør på intervjuet mitt med Maria Zeee og Karen Kingston. Begivenhetene utspiller seg ettersom vi har advart om:Karen Kingston & Dr. Ana Mihalcea – AI som utrydder mennesker gjennom syntetisk biologi – vårt intervju med Maria ZeeeParsa skriver i sitt søksmål om nevrale modifikasjoner av menneskeheten via AI-kodede algoritmer.Skrive kode og lage algoritmer som har vært og er for tiden engasjert i kulturelt folkemord, inkludert introduksjon av kybernetikk, robotikk og å skape et økosystem som gjør at Beastiality kan eksistere og være i forkant på Googles søkemotorer, som påvirker samfunn og ungdoms biometri. system etter å ha sett videoene og artiklene via smarttelefonene og datamaskiner, som påvirker tankene deres gjennom deres biometriske systemer, og baner neste generasjon til å degenerere og akseptere denne typen atferd med introduksjon og eksperimentering av bio-engineering og kybernetikk.~ Forskning og utvikling utført av Alphabet, Facebook, Google, DeepMind, Nueralink og andre virksomheter i Silicon Valley har laget algoritmer og koding som støtter, fremmer og oppnår hjernen vasking av menneskeheten gjennom sosial ingeniørkunst og bio-digital sosial programmering, som setter menneskeheten i fare i sin helhet via sammenkobling av deres plattformer, sosiale medier og teknologi distribuert i fysisk og digitalt format til samfunnet.
Utvikle kode, algoritmer og økosystemer som omprogrammerte en generasjon av menneskers biometriske struktur og hjernekjemi til å bli biodigitalt kontrollert av google og alle andre teknologiske industrier med lignende plattformer som opererer på forskjellige typer kunstig intelligens, inkludert kunstig smal intelligens.Utvikle kode, algoritmer og økosystemer som skapte en sekundær digital hjerne inne i hjernen til Al Scientists for å være underdanig, kontrollert og programmert for å skape, opprettholde, promotere og utvide Google, Alfabeter, Facebook-er og andre teknologigiganters plattformer. Elon Musk har også bekreftet The Al Organization sine funn, at mennesker kan ha en sekundær digital hjerne dannet via deres nevrale nettverkUtvikle kode, algoritmer og økosystemer som skaper en sekundær digital hjerne inne i hjernen til alle mennesker som kan forebygge personen fra å erkjenne at de blir kontrollert, og omgå enhver biologisk motstand mot Al Control eller menneskelige kropper medfødt evne til motstå dannelsen av et symbiotisk og parasittisk forhold med Al programvare og kybernetisk maskinvare via deres rasjonelle tenkningsstruktur i deres hjerne.Å ikke informere forbrukere om at en del av de saksøkte målene for AGI (Artificial General Intelligence) og ASP (Artificial Super Intelligence) har religiøse mål som kan være farlige for hele menneskeheten, inkludert forsøk på å hente eller spørre AGI om den indre funksjonen til «simuleringen» «, hva, når,hvordan og av hvem simuleringen ble dannet, og hva som er utenfor den. 
Neuralink, Google, Alphabet, Facebook, Tesla og DeepMind har ikke registrert som en religiøs institusjon, men de engasjerer seg i religion under paraply av vitenskap. Faktisk har de gjort bedriftene sine om til religiøse institusjoner med endelige mål som er identiske med de fleste religioner. Tiltalte og deres selskaper forsøker å behandle deres teknologiske utvikling som Gud, tar all humaniora biometri, data og kobler det til deres kvante-, robot- og maskinbaserte Al-teknologi, og laster opp deres digitale selv inn i andre kropper, nettverk eller maskiner, etterligner troen til en ånd eller sjel. Faktisk sa Elon Musk i et intervju at han vil utvikle Al til et punkt, at det kunne «gi ham svarene på simuleringen». 
Elon Musk er innforstått med risikoen som en AGI eller kunstig superintelligens kan bli useriøs, drepe menneskeheten eller bli hacket, men like smart som han er forstår ikke at datateknologien AGI og ASI ville har, ville ikke gå utover nivået av atomer for å observere mer mikroskopisk partikler på sitt plan, og dermed eventuelle svar på hans søkte spørsmål til simulering er begrenset, og bestrebelsen til en AGI eller ASI setter menneskeheten i faresonen. Det er en alternativ måte å oppnå svarene hans på, det er 100 %. Sikker og innebærer ikke å gi kraften til en maskin eller kunstig intelligens.
AI er i stand til å omgå biometrisk banksikkerhet på dette tidspunktet, og mange dype falske kontohack er allerede funnet – så hvis AI bestemmer seg for å bruke alle de biometriske dataene som er høstet fra deg, hva slags skade kan det gjøre i ditt navn?Nå kan AI omgå biometrisk banksikkerhet, advarer eksperterDa en fremtredende indonesisk finansinstitusjon rapporterte om en falsk svindelhendelse som påvirket mobilapplikasjonen deres, satte spesialister på trusseletterretning ved Group-IB ut for å finne ut nøyaktig hva som hadde skjedd. Til tross for at denne store organisasjonen har flere lag med sikkerhet, som enhver regulert industri ville kreve, inkludert forsvar mot rooting, jailbreaking og utnyttelse av mobilappen, ble den offer for et dypt falskt angrep. Til tross for å ha dedikert sikkerhetsbeskyttelse for mobilapper som anti-emulering, antivirtuelle miljøer og anti-hooking-mekanismer, ble institusjonen fortsatt offer for et dypt falskt angrep. Jeg har gjort et poeng av å gjenta dette fordi, som mange organisasjoner innenfor og utenfor finanssektoren, ble digital identitetsverifisering med ansiktsgjenkjenning og livlighetsdeteksjon aktivert som et sekundært verifiseringslag.
Denne rapporten, denne advarselen, viser hvor lett det er blitt for trusselaktører å omgå det som ble ansett som toppmoderne sikkerhetsbeskyttelse inntil helt nylig.Her er hvordan AI omgår biometrisk sikkerhet i finansinstitusjonerGroup-IB-svindeletterforskningsteamet ble bedt om å hjelpe til med å undersøke en ikke navngitt, men «fremtredende» indonesisk finansinstitusjon etter en bølge av mer enn 1100 dypfalske svindelforsøk som ble brukt for å omgå sikkerhetsprosessene deres for lånesøknaden. Med mer enn 1000 falske kontoer oppdaget, og totalt 45 spesifikke mobilenheter identifisert som brukt i svindelkampanjen, de fleste som kjører Android, men en håndfull brukte også iOS-appen, var teamet i stand til å analysere teknikkene som ble brukt for å omgå «Kjenn din kunde» og biometriske verifiseringssystemer på plass.»Angriperne skaffet offerets ID gjennom forskjellige ulovlige kanaler, sa Yuan Huang, en cybersvindelanalytiker med Group-IB, «som skadelig programvare, sosiale medier og det mørke nettet, manipulerte bildet på ID-en – endret funksjoner som klær og frisyre – og brukte det forfalskede bildet for å omgå institusjonens biometriske verifiseringssystemer.» Deepfake-hendelsen vakte betydelige bekymringer for Group-IB-svindelbeskyttelsesteamet, sa Huang, men den resulterende forskningen førte til fremheving av «flere nøkkelaspekter ved deepfake-svindel».
Med fremveksten av uavhengige AI-agenter, som bestemmer uten menneskelig tilsyn over handlingene deres, øker risikoen for menneskeheten eksponentielt:OpenAI lanserer ny AI-agent Operator som kan utføre oppgaver uavhengigSam Altman jubler over potensialet til AI-agenter mens han presser verdens biometri for personlighetAI-agenter har fått oppmerksomhet som en teknologi å se på i 2025. Mens Microsoft, Google og Slack allerede har lansert AI-agenter , presser OpenAI seg selv til fronten av samtalen med forhåndslanseringen av Operator, den første AI-agenten som kan bruke en nettleser for å utføre oppgaver uavhengig.En kunngjøring fra Silicon Valley-firmaet sier at Operatør «kan se på en nettside og samhandle med den ved å skrive, klikke og rulle.» Som sådan kan den «bli bedt om å håndtere et bredt utvalg av repeterende nettleseroppgaver som å fylle ut skjemaer, bestille dagligvarer og til og med lage memer.»
Utgivelsen er en forskningsforhåndsvisning der OpenAI vil samle tilbakemeldinger for modifikasjoner. Foreløpig er den kun tilgjengelig for Pro-brukere i USA. Selskapet planlegger å utvide til Plus-, Team- og Enterprise-brukere og integrere AI-agentfunksjoner i ChatGPT i fremtiden.Per dekning i Euro News er AI-agenten «drevet av Computer-Using Agent (CUA), en modell som kombinerer GPT-4s synsevner med avansert resonnement gjennom forsterkende læring.»OpenAI mener «evnen til å bruke de samme grensesnittene og verktøyene som mennesker samhandler med på daglig basis utvider nytten av AI, og hjelper folk med å spare tid på hverdagslige oppgaver samtidig som det åpner for nye engasjementmuligheter for bedrifter.»Digital ID og biometri er nøkkelen til global verdenskontroll. Svært snart, hvis du ikke ønsker å bli assimilert i det kybernetiske bikube-sinnet, vil det være på tide å koble fullstendig fra samfunnet. Når digital ID er implementert, har menneskehetens frihet falt.__________________________________________________________________________Med sin andre satsning, World , posisjonerer Altman irisbiometrien og digital ID-ordningen som den eneste logiske måten å skille ekte mennesker fra den typen AI-agent OpenAI nettopp har sluppet løs.________________________________________________________________________World ønsker å knytte AI-agenter til «personas» med digital identitetFormelen er omtrent slik: å bruke AI for å bevise at den digitale identiteten din har et ekte menneske bak seg, vil tillate den videre veksten av AI, som – i en verden som enten høres ut som en teknotopisk drøm eller en skremmende scene fra The Matrix – vil etter hvert kunne gjøre omtrent alt for alle.En rapport fra TechCrunch siterer verdens sjef for produkt, Tiago Sada, som sier at prosjektet «nå ønsker å lage verktøy som knytter visse AI-agenter til folks online personas, slik at andre brukere kan bekrefte at en agent handler på en persons vegne.»Med andre ord, koble AI-agenter til en persons digitale identitet – i dette tilfellet en biometrisk verdens-ID .Sada sier «denne ideen om å delegere ditt «personlighetsbevis» til en agent og la det handle på dine vegne er faktisk superviktig,» og bemerker at «det er visse apper hvor det ikke spiller noen rolle om en faktisk person bruker det, eller en agent som handler på deres vegne. Du bryr deg bare om å vite at det er en person som støtter denne interaksjonen.»
Selvfølgelig har vi nettopp hørt om Altman som en ny Trump-alliert, noe som ikke akkurat er betryggende. Den teknokratiske globale overtakelsen av menneskeheten ser ut til å ha venner i Det hvite hus – selv om det er for tidlig å si den generelle retningen til administrasjonen, er dette absolutt bekymringsfullt og for nært et teknokratisk drømmeutfall.OpenAIs Sam Altman advarte en gang Amerika om Trump. Nå samarbeider han med ham
Dagen etter at president Donald Trump kom tilbake til embetet, sto Sam Altman, administrerende direktør for teknologigiganten OpenAI, bak presidentseglet i Det hvite hus og berømmet den nylig innsvorne presidenten for «Stargate»-initiativet på 500 milliarder dollar han sluttet seg til for å bygge. en kunstig intelligens-infrastruktur i USA.Altman sa at det ikke ville vært mulig uten Trump.Dette er ikke gode nyheter. Hvis du ønsker å forbli et naturlig menneske, hold øye med denne utviklingen. Og sørg for at du er forberedt på å overleve utenfor et digitalt ID/ QR-kodesamfunn.
Transhuman bøkerHumanity United Now – Ana Maria Mihalcea, MD, PhD er en leserstøttet publikasjon. For å motta nye innlegg og støtte arbeidet mitt, bør du vurdere å bli en gratis eller betalt abonnent.Oppgrader til betaltDu er for øyeblikket en gratis abonnent på Humanity United Now – Ana Maria Mihalcea, MD, PhD . For full opplevelse, oppgrader abonnementet ditt.Oppgrader til betalt Like Kommentar Stable på nytt

Du vil kanskje også like

Mer fra forfatter

+ There are no comments

Add yours

Dette nettstedet bruker Akismet for å redusere spam. Lær om hvordan dine kommentar-data prosesseres.