Зростаюча поширеність «тіньового АІ», коли працівники банків використовують непогоджені технології, становить серйозну загрозу для фінансового сектору, як показало нещодавнє дослідження.
Дослідження компанії DeepL виявило, що 65% опитаних фінансових професіоналів у Великій Британії визнали, що використовують непогоджені інструменти штучного інтелекту для спілкування з клієнтами, що створює потенційні ризики для кібербезпеки та відповідає нормативним вимогам.
Згідно з дослідженням, більшість респондентів (70%) вважають, що штучний інтелект покращив швидкість та доступність підтримки клієнтів і очікують, що ця технологія стане незамінною для міжнародного банкінгу.
Вже 37% банківських взаємодій здійснюється за допомогою штучного інтелекту, причому найбільше використовується мультимовна комунікація, за якою йдуть чат-боти та моніторинг транзакцій для виявлення шахрайства.
Проте зростання «тіньового АІ» може завадити розвитку цієї технології.
Інше дослідження, опубліковане на цьому тижні Cybernews, показує, що 59% працівників у США використовують непогоджені інструменти штучного інтелекту, причому керівники та менеджери є найгіршими порушниками.
«Якщо працівники використовують непогоджені інструменти штучного інтелекту в роботі, неможливо знати, яку інформацію з ними обмінюються», — зазначив Мантас Сабеккіс, дослідник з кібербезпеки Cybernews. «Оскільки такі інструменти, як ChatGPT, виглядають як спілкування з другом, люди забувають, що ці дані фактично передаються компанії, що стоїть за чат-ботом», — додав він.
За даними DeepL, «тіньовий ІТ» зазвичай виникає, коли команди не мають доступу до необхідних їм інструментів — наприклад, коли використовуються універсальні AI-інструменти, у той час як потрібні безпечні, спеціалізовані рішення для перекладу.
Таким чином, компанії повинні забезпечити тіснішу співпрацю між відділами, що працюють з клієнтами, та ІТ-відділом для вибору необхідних технологій.






