Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Alex Imas
Професор @ChicagoBooth. Економіка + прикладний штучний інтелект.
Якими будуть економічні результати, коли транзакції делегуватимуться агентам ШІ?
Чи будуть людські відмінності згладжені, що призведе до більш однорідних результатів, чи їх відтворять і, можливо, навіть посилять?
Чи зможуть агенти ШІ зменшити нерівність, чи вона збережеться і потенційно набуде нових форм?
Чи усунуть агенти ШІ інформаційну асиметрію у відносинах принципал-агент, чи створять нові тертя?
Нова стаття з К. Лі та @sanjog_misra дає деякі ранні відповіді:
1) Взаємодії ШІ та агентів, якщо вже на те пішло, створюють більшу дисперсію та гетерогенність економічних результатів, ніж еталони між людиною і людиною.
2) Розсіювання агентних взаємодій можна безпосередньо простежити до неінструментальних рис і упереджень людських принципів, які виконують підказку. Гіпотеза про більшу однорідність із (ШІ)агентними взаємодіями, здається, не виконується.
3) Існують суттєві відмінності у «машинній плавності» — здатності писати підказки, які узгоджують агента з метою довірителя. Деякі принципи краще максимізують агентні результати, ніж інші. Основні характеристики передбачають ефективність агента, що свідчить про нове джерело нерівності.
4) Деякі риси мають подібний зв'язок із результатами, як і взаємодія людини з людиною, але інші навпаки, наприклад, гендерна різниця у обговорених результатах.
5) Зміни відносин між принципалом і агентом: запит тепер виконує роль контракту. Але об'єктивна функція агента в чорній скриньці передбачає новий тип неповноти контракту, який ми широко називаємо «загрозою специфікації».
Оскільки економічна діяльність переходить до автономних агентів, основне джерело ринкових спотворень може зміщуватися від інформаційних асиметрій між сторонами до ментальних моделей принципалів агентів ШІ, яким вони делегують.

18,07K
Прочитайте чудову статтю Wolfram «Що робить ChatGPT...» (h/t @danielrock).
Він пише, що ми багато дізналися про те, як працює мова, з того факту, що GPT3, маючи лише 175 мільярдів ваг, може так добре її емуляцувати. Це означає, що обчислювально все набагато простіше, ніж ми думали. А як щодо математики?
На момент написання цієї книги (2023) GPT все ще був дуже поганим у математиці. Моделі стали дуже (дуже) хорошими в математиці, коли з'явилася перша модель мислення (O1), яка більше покладалася на навчання за допомогою підкріплення, а не просто на попереднє навчання грубою силою.
Цікаво, що це говорить про математику? Концептуально мова набагато «розмитіша», ніж математика: кілька слів можуть звучати «правильно» в одному й тому ж місці речення. Саме це робить ймовірнісну архітектуру LLM успішною. Математика менш розмита. Можливо, саме тому більш «орієнтований на правила» крок RL був критично важливим.
Але це також означає, що формальна математика менш обчислювально складна, ніж ми думали. Думки? @littmath @alz_zyd_

63,51K
Найкращі
Рейтинг
Вибране




