ЖИ және жеке деректер: ChatGPT-ге айтуға болмайтын 5 нәрсе

Нейрожелілер күнделікті өміріміздің бір бөлігіне айналуда. Алайда бүгінде деректердің таралып кету қаупі де арта түсті. Мамандар жасанды интеллектіге қандай ақпаратты жүктеуге болмайтынын ескертеді, деп хабарлайды BAQ.KZ тілшісі SlashGear-ге сілтеме жасап.

Жасанды интеллект мультимодалды жүйеге айналды. Ол фотосуреттерді, құжаттарды, тіпті дауысты да талдай алады. Алайда ChatGPT-дің қолайлы әрі достық интерфейсі жеке деректердің толық қауіпсіздігін білдірмейді. Чатқа енгізілген кез келген ақпарат болашақ модельдерді оқытуда пайдаланылуы немесе техникалық ақаулар кезінде үшінші тұлғалардың қолына өтуі мүмкін.

Киберқауіпсіздік саласының сарапшылары нейрожелімен бөлісуге болмайтын бес «қызыл аймақты» атап өтті:

Жеке сәйкестендіру деректері: Паспорт мәліметтері, ЖСН, үйіңіздің мекенжайы мен телефон нөмірлері.

Алаяқтар жасанды интеллектіні аса шынайы дипфейктер жасау үшін пайдалануда. Жеке ақпараттың кез келген ұсақ бөлігі сіздің жеке басыңыздың дерегін «ұрлауға» көмектесуі мүмкін.

Қаржылық құпиясөздер мен шоттар: Банк карталарының нөмірлері мен CVV-кодтар – қатаң тыйым салынған ақпарат. Тіпті ЖИ-дан «несиені өтеу жоспарын құрып беруді» сұрасаңыз да, нақты сандар мен шот нөмірлерін енгізбеңіз.

Медициналық құпия: МРТ нәтижелерін немесе талдауларды «түсіндіріп беру» үшін жүктеу – үлкен қауіп. Денсаулыққа қатысты деректер қара нарықта ең қымбат ақпарат саналады, ал ЖИ-сервистер дәрігерлік құпияға тең заңды мәртебеге ие емес.

Корпоративтік құпиялар: Компанияның ішкі есептерін немесе стратегияларын қысқаша мазмұндау үшін жүктеу жұмысыңыздан айырылуға әкелуі мүмкін. 2025–2026 жылдары ЖИ бір компанияның құпия деректерін оның бәсекелестеріне беріп қойған жағдайлар тіркелген.

Қылмыстық мазмұн: Заңды айналып өту тәсілдері туралы сұрақтар тек сүзгілер арқылы бұғатталып қана қоймай, ресми сұрау салу болған жағдайда құқық қорғау органдарына берілуі мүмкін.

OpenAI басшысы Сэм Альтман бірнеше рет атап өткен: чат-ботпен хабар алмасып, онымен жазысу адвокатпен немесе дәрігермен әңгімелескендей заңды қорғанысқа ие емес. Сот ісі кезінде сіздің сұраулар тарихыңыз дәлел ретінде талап етілуі ықтимал.

Маңызды кеңес: Мәтінді өңдеу қажет болса, ChatGPT баптауларында «инкогнито» режимін қолданыңыз немесе модельді оқыту функциясын өшіріңіз. Алайда бұл да 100% кепілдік бермейді.

Есте сақтаңыз: Интернетке түскен ақпарат интернетте қалады.

Айта кетейік, бұған дейін күн сайын 40 миллион адам ChatGPT-ден денсаулық туралы сұрайтыны хабарланған. 

Бөлісу:
Қысқа да нұсқа. Жазылыңыз telegram - ға
Өзгелердің жаңалығы