Barneovervåkingsfunksjonen på ChatGPT hjelper også foreldre med å føle seg tryggere når de lar barna sine bruke kunstig intelligens.
Det kommende verktøyet ChatGPT for barneovervåking blir sett på som en sikkerhetsendring fra OpenAI etter et høyprofilert søksmål. Funksjonen har som mål å redusere risikoen for at barn chatter med chatboter, samtidig som den reiser spørsmål om det sosiale ansvaret til kunstig intelligens-selskaper.
Fra det sjokkerende søksmålet
I august i fjor anla familien til Adam Raine, en 16 år gammel gutt i California, sak mot OpenAI. De hevdet at ChatGPT ga instruksjoner om selvskading og verbal mishandling som gjorde at sønnen deres følte seg håpløs før han begikk selvmord.
Søksmålet skapte raskt oppstyr og åpnet en debatt om sikkerheten til kunstig intelligens for unge brukere.
Denne hendelsen reiser viktige spørsmål: bør mindreårige bruke ChatGPT uten tilsyn, og hvordan bør ansvaret til utviklere av kunstig intelligens avgjøres når produktet direkte påvirker psykologien til unge brukere?
Som svar på dette presset annonserte OpenAI at de har lagt til foreldrekontroller, et første skritt mot å demonstrere sin forpliktelse til å beskytte barn og signalisere at selskapet er klart til å sette sikkerhet først i neste fase av ChatGPTs utvikling.
Overvåkingsfunksjoner på ChatGPT
Ifølge den offisielle kunngjøringen vil OpenAI rulle ut et verktøy som lar foreldre koble kontoene sine til barnas ChatGPT-kontoer. Når det er aktivert, kan foreldre administrere viktige innstillinger som å slå av chatlagring, kontrollere brukshistorikk og justere alderstilpassede interaksjonsnivåer.
Høydepunktet ved denne innovasjonen er varslingssystemet. ChatGPT vil bli trent til å gjenkjenne når unge brukere viser tegn på psykisk stress, som stress, depresjon eller selvskading. I slike tilfeller vil foreldre motta et varsel om å gripe inn raskt. OpenAI hevder at målet ikke er å overvåke hele samtalen, men å fokusere på presserende situasjoner for å beskytte barns sikkerhet.
I tillegg, når sensitivt innhold oppdages, vil ChatGPT bytte til dyptgående resonneringsmodeller som er utviklet for å gi mer gjennomtenkte og støttende svar. Parallelt samarbeider selskapet med medisinske eksperter og et internasjonalt rådgivende utvalg for å fortsette å forbedre beskyttelsen sin fremover.
Utfordringene som oppstår
Selv om OpenAI har lagt vekt på at den nye funksjonen er utviklet for å være til fordel for familier, har den internasjonale responsen vært blandet. Verktøyet forventes å gi et ekstra lag med beskyttelse for foreldre når barna deres samhandler med kunstig intelligens, men det har også reist langvarige bekymringer, fra bruksbegrensninger til personvern for barns data.
Faktisk har eksperter i årevis reist bekymringer om barns personvern. Disse advarslene fremhever at lagring og analyse av barns chattehistorikk uten strenge beskyttelsestiltak kan øke risikoen for å eksponere sensitiv informasjon. Fremveksten av ChatGPTs overvåkingsverktøy har brakt problemet tilbake i søkelyset.
Et annet punkt som ble diskutert var systemets varslingsterskel. OpenAI sa at ChatGPT ville oppdage tegn på alvorlig stress og sende et varsel til foreldre.
Maskinlæring innebærer imidlertid alltid en risiko for feil. Hvis systemet gir falsk alarm, kan foreldre bli unødvendig forvirret. Omvendt, hvis det går glipp av et signal, kan barn risikere at familiene ikke kan gripe inn i tide.
Internasjonale barnevernorganisasjoner har også fulgt OpenAIs trekk nøye, og har anerkjent foreldrekontrollverktøyet som et positivt tegn, men advart om at mangelen på streng aldersverifisering og standardbeskyttelse betyr at barn fortsatt kan være i faresonen, selv med foreldretilsyn.
Disse debattene viser at utviklingen av kunstig intelligens ikke bare er et spørsmål om teknologi, men også nært knyttet til samfunnsansvar og den yngre generasjonens sikkerhet.
THANH TOR
Kilde: https://tuoitre.vn/openai-tung-tinh-nang-giam-sat-tre-tren-chatgpt-sau-nhieu-tranh-cai-2025090316340093.htm
Kommentar (0)