• субота

    6 грудня, 2025

  • 2.2°
    Похмуро

    Миколаїв

  • 6 грудня , 2025 субота

  • Миколаїв • 2.2° Похмуро

Штучний інтелект може «тупішати» через сучасні меми, — дослідження

Штучний інтелект може «тупішати» через сучасні меми. Фото: digidayШтучний інтелект може «тупішати» через сучасні меми. Фото: digiday

Американські науковці з Університету Техасу в Остіні, з’ясували, що великі мовні моделі (LLM), які навчаються на великій кількості популярного, але низькоякісного контенту з інтернету, поступово втрачають здатність якісно мислити.

Про це повідомляє DTF Magazine із посиланням на препринт наукового дослідження.

У вступі до дослідження йдеться, що дослідники хотіли дослідити феномен, який самі жназвали «штучним brain rot» — своєрідне «когнітивне гниття», подібне до ефекту, який спостерігають у людей, що надмірно споживають «низькоякісний» контент у соцмережах.

i Підтримай тих, хто щодня тримає місто в курсі

Клуб МикВісті — місце, де читач і редакція по один бік.

Учасники мають закритий чат, ексклюзивну розсилку із залаштунків життя журналістів, бачать новини раніше й впливають на зміни.

Приєднуйся. Разом тримаємо місто світлим

lock icon Безпечна оплата

Отримувачем внесків є ГО «Миколаївський Медіа Хаб» (ЄДРПОУ 45160758). Здійснюючи внесок, ви підтверджуєте згоду з тим, що внесена сума не підлягає поверненню та може бути використана ГО «Миколаївський Медіа Хаб» на реалізацію статутної діяльності, що включає підтримку незалежної журналістики та створення суспільно важливого контенту. Публічна оферта.

«Ми живемо в епоху, коли інформація зростає швидше, ніж увага, і більшість із неї створюється не для передачі істини, а для отримання кліків. Ми просто спитали себе: що буде, якщо навчити цьому штучний інтелект?» — пояснив співавтор дослідження Цзюнь Юань Хонг, нині доцент Національного університету в Сінгапурі.

Для експерименту вчені використали чотири відкриті моделі — Llama3 та три версії Qwen. Їх «донавчали» на основі популярних дописів із соцмережі Х (колишній Twitter): сенсаційних та клікбейтних новинах, фрагментарних мемів, повторюваних коментарів і «rage bait» (викликаючі злість) публікаціях.

Після цього штучний інтелект став гірше міркувати, мав проблеми з пам’яттю та ледве дотримувався раніше закодованих етичних норм. У деяких випадках ШІ навіть починав поводитися, як людина: проявляв ознаки нарцисизму чи психопатії. Основною проблемою стало те, що мовні моделі дедалі частіше спрощували або пропускали логічні ланцюги у своїх відповідях.

«Мовні моделі віддзеркалюють якість своїх даних глибше, ніж ми уявляли. Коли вони стикаються з неякісним текстом, вони не просто звучать гірше — вони починають гірше мислити», — пояснив Цзюнь Юань Хонг.

Команда також з’ясувала, що навіть повторне навчання цих моделей вже на «чистих» даних лише частково відновлює когнітивні функції ШІ — базові здібності мислити не повертаються повністю.

Дослідники наголошують: ці результати ставлять під сумнів безконтрольне використання соціальних мереж як джерела даних для навчання ШІ. Зокрема, це може стосуватися систем, побудованих на основі контенту користувачів, як-от Grok від компанії xAI Ілона Маска.

Нагадаємо, у першій половині 2025 року Україна посіла п’яте місце у світі та третє в Європі серед країн, які найчастіше ставали ціллю кібератак.

Реклама

Читайте також:

0
Обговорення

Щоб долучитись до коментарів на сайті МикВісті.

Приєднатись до Клубу МикВісті
Можете скасувати у будь-який момент Payment systems