76% успіху у тестах на злом: OpenAI визнає нові ризики ШІ
Розвиток ШІ випереджає прогнози, а можливості нових моделей уже виходять за межі безпечних сценаріїв, зазначають в OpenAI.
Компанія OpenAI заявила, що розвиток штучного інтелекту відбувається значно швидше, ніж очікувалося раніше, і деякі сучасні моделі вже можуть становити реальну кібербезпекову загрозу.
Згідно з результатами внутрішніх профільних тестів, модель GPT-5 змогла успішно розв’язати 27% завдань, пов’язаних зі зломом та кіберопераціями. Ще більш просунута версія — GPT-5.1 — показала результат у 76%, продемонструвавши рівень навичок, який раніше вважався недосяжним для ШІ.
В OpenAI підкреслюють, що вся індустрія стрімко рухається до створення дедалі потужніших систем штучного інтелекту. Водночас зростання можливостей таких моделей означає і збільшення потенційних ризиків, зокрема у сфері кібербезпеки.
Компанія наголошує на необхідності посилення захисних механізмів, відповідального розвитку ШІ та тісної співпраці між розробниками, бізнесом і державами для мінімізації можливих загроз.

MediaForge
14 груд. 2025 р.
Напрямки діяльності










