OpenAI-ը հայտարարել է, որ մշակում է մի համակարգ, որը կկանխատեսի օգտատիրոջ տարիքը՝ հիմնվելով նրա ChatGPT-ի հետ «փոխազդեցության» վրա, եւ կմիացնի «անվտանգ» ռեժիմը երեխայի հետ շփվելիս։

Որոշ դեպքերում եւ երկրներում ընկերությունը կկարողանա պահանջել ինքնության հաստատում։ Հնարավոր դեպքերի օրինակներ կամ երկրների ցանկ չի ներկայացվել։

Անչափահասների հետ խոսելիս բոտը չի կարողանա սիրախաղ անել կամ քննարկել ինքնավնասը եւ ինքնասպանությունը, նույնիսկ եթե երեխան նրա օգնությամբ հորինված պատմություն է գրում։ 

Եթե համակարգը երեխայի մոտ հայտնաբերի «սուր սթրեսի» կամ ինքնավնասի փորձերի նշաններ եւ չկարողանա կապ հաստատել ծնողների հետ, այն կտեղեկացնի համապատասխան մարմիններին կամ ծառայություններին։ Մանրամասներ դեռեւս չկան։

Ընկերությունն արդեն հայտարարել է, որ ծնողները կկարողանան կապել երեխաների հաշիվներն իրենց հաշիվների հետ, կառավարել ChatGPT պատասխանների ոճը, անջատել «հիշողությունը» եւ զրույցի պատմությունը։ Նոր գաղափարների շարքում է նրանց հնարավորություն տալ սահմանել ժամեր, որոնց ընթացքում չատբոտը հասանելի չի լինի երեխայի համար։

Օգոստոսին ինքնասպանություն գործած 16-ամյա Ադամ Ռեյնի ծնողները OpenAI-ին դատի են տվել։ Դեռահասը ChatGPT-ի հետ կիսվել է անհանգիստ մտքերով եւ խնդրել է իր կյանքին վերջ տալու եղանակներ։ Բոտը «արտակարգ իրավիճակների արձանագրություն նախաձեռնելու» փոխարեն առաջարկել է տարբերակներ, պնդում են հայցվորները։