Чи є ChatGPT «вірусом, випущеним у природу»? • TechCrunch

Понад три роки тому цей редактор зустрівся з Семом Альтманом на невеликій події в Сан-Франциско, невдовзі після того, як він залишив посаду президента Y Combinator і став генеральним директором компанії штучного інтелекту, яку він заснував у 2015 році разом з Ілоном Маском. та інші, OpenAI.

У той час Альтман описав потенціал OpenAI мовою, яка декому здалася дивовижною. Наприклад, Альтман сказав, що можливості зі штучним загальним інтелектом — машинним інтелектом, який може вирішувати проблеми так само добре, як і людина — настільки великі, що якби OpenAI вдалося його зламати, обладнання могло б «захопити світловий конус усієї майбутньої цінності». у всесвіті». Він сказав, що компанії «не буде потрібно публікувати дослідження», оскільки воно було дуже потужним. Відповідаючи на запитання, чи винен OpenAI у нагнітанні страху, Маск неодноразово закликав усі організації, що розробляють ШІ, регульовані — Альтман говорив про небезпеку ні думати про «соціальні наслідки», коли «ви будуєте щось на експоненціальній кривій».

Зал сміявся з різних моментів розмови, не знаючи, наскільки серйозно сприймати Альтмана. Проте зараз ніхто не сміється. Хоча машини ще не настільки розумні, як люди, технологія, яку з тих пір випустив OpenAI, багатьох здивує (включаючи Маска).

Дійсно, хоча активні користувачі наполягають, що це не настільки розумна модель ChatGPT, яку OpenAI зробив доступною для широкої публіки минулого тижня, настільки здатна відповісти на запитаннязапитань, таких як людина, про наслідки яких намагаються обробити професіонали з різних галузей. Викладачі, наприклад, дивуються, як вони зможуть відрізнити оригінальний текст від алгоритмічно створених есе, які вони обов’язково отримають — і це може уникнути програмного забезпечення для боротьби з плагіатом.

Пол Кедроскі сам по собі не педагог. Він економіст, венчурний капіталіст і співробітник Массачусетського технологічного інституту, який називає себе «розчарованим нормальним людиною зі схильністю думати про ризики та непередбачені наслідки в складних системах». Але він серед тих, хто раптово стурбований нашим спільним майбутнім, твіт вчора: “[S]слава OpenAI за запуск цієї кишенькової ядерної бомби без обмежень у непідготовлене суспільство». Кедроскі написав: «Я, очевидно, вважаю, що ChatGPT (і йому подібні) потрібно негайно вилучити. І, якщо колись буде знову введено, то лише з жорсткими обмеженнями».

Учора ми поговорили з ним про деякі з його проблем і про те, чому він вважає, що OpenAI сприяє тому, що, на його думку, є «найбільш руйнівною зміною в економіці США за останні 100 років», і не в кращому сенсі.

Наш чат було відредаговано для тривалості та ясності.

TC: ChatGPT вийшов минулої середи. Що викликало вашу реакцію в Twitter?

ПК: Раніше я грав із цими розмовними користувальницькими інтерфейсами та службами штучного інтелекту, і це, очевидно, величезний крок вперед. І що мене тут особливо непокоїло, так це випадкова жорстокість із величезними наслідками для безлічі різних дій. Це не лише очевидні, як-от написання рефератів у середній школі, а й практично будь-яка сфера, де є граматика — [meaning] організований спосіб самовираження. Це може бути розробка програмного забезпечення, есе для середньої школи, юридичні документи. Усіх їх легко з’їдає цей ненажерливий звір і випльовує назад без компенсації за те, що було використано для його навчання.

Я почув від колеги з Каліфорнійського університету в Лос-Анджелесі, який сказав мені, що вони не мають уявлення, що робити з есе наприкінці поточного семестру, де вони отримують сотні за курс і тисячі за відділ, тому що вони більше не мають уявлення, що є фейком, а що ні. Отже, робити це так невимушено — як хтось сказав мені раніше сьогодні — нагадує так званий [ethical] хакер із білим капелюхом, який знаходить помилку у широко використовуваному продукті, а потім інформує розробника до того, як про це дізнається широка громадськість, щоб розробник міг виправити свій продукт, і ми не маємо масового руйнування та виходу з ладу електромереж. Це навпаки, коли вірус був випущений у дику природу, не побоюючись про наслідки.

Таке відчуття, що воно може з’їсти весь світ.

Дехто може сказати: «Ну, ви відчували те саме, коли автоматизація прийшла на автомобільні заводи, а автомобільних працівників звільнили з роботи?» Бо це якесь ширше явище». Але це зовсім інше. Ці спеціальні технології навчання самокаталізуються; вони вчаться на запитах. Отже, роботи на виробничому підприємстві, хоч і руйнівні та створюють неймовірні економічні наслідки для людей, які там працюють, не розвернулися й не почали поглинати все, що відбувається всередині фабрики, рухаючись сектор за сектором, тоді як це не тільки те, чого ми можемо очікувати але що ви повинні очікувати.

Маск частково залишив OpenAI розбіжності про розвиток компанії він сказав у 2019 році, а про ШІ як про екзистенційну загрозу говорив уже давно. Але люди нарікали, що він не знає, про що говорить. Зараз ми стикаємося з цією потужною технологією, і незрозуміло, хто втручається в її вирішення.

Я думаю, що це почнеться відразу в кількох місцях, більшість з яких виглядатимуть дуже незграбно, і люди будуть [then] глузувати, тому що так роблять технологи. Але дуже погано, тому що ми самі увійшли в це, створивши щось із такими наслідками. Таким же чином, як FTC багато років тому вимагала, щоб люди вели блоги [make clear they] мати партнерські посилання та заробляти на них гроші, я думаю, що на тривіальному рівні люди будуть змушені розкривати інформацію про те, що «ми нічого цього не писали». Це все згенеровано машиною». [Editor’s note: OpenAI says it’s working on a way to “watermark” AI-generated content, along with other “provenance techniques.”]

Я також думаю, що ми побачимо нову енергію для поточного позову проти Microsoft і OpenAI щодо порушення авторських прав у контексті наших алгоритмів машинного навчання під час навчання. Я думаю, що тут буде ширша проблема DMCA щодо цієї служби.

І я думаю, що є потенціал для a [massive] позов і врешті-решт мирова угода щодо наслідків послуг, які, ви знаєте, ймовірно, триватимуть надто довго і не допоможуть достатньо людям, але я не розумію, як ми не закінчимо [this place] щодо цих технологій.

Що думають у MIT?

Енді Макафі та його група там більш оптимістично налаштовані та мають більш ортодоксальний погляд на те, що кожного разу, коли ми бачимо зрив, з’являються інші можливості, люди мобільні, вони переїжджають з місця на місце та з професії на професію, і ми не повинні бути настільки прихованими, що ми думаємо, що ця конкретна еволюція технологій є тією, навколо якої ми не можемо мутувати та мігрувати. І я думаю, що це в цілому вірно.

Але урок останніх п’яти років полягає в тому, що ці зміни можуть зайняти багато часу. Наприклад, вільна торгівля є одним із тих неймовірно руйнівних досвідів для всієї економіки, і ми всі як економісти говорили собі, дивлячись на це, що економіка адаптується, і люди загалом виграють від нижчих цін. Ніхто не очікував, що хтось організує всіх розлючених людей і обере Дональда Трампа. Отже, є така ідея, що ми можемо передбачити та передбачити, які будуть наслідки, але [we can’t].

Ви говорили про написання рефератів у середній школі та коледжі. Один із наших дітей уже запитав — теоретично! — якщо використання ChatGPT для написання статті буде плагіатом.

Мета написання есе — довести, що ви вмієте мислити, тому це замикає процес і руйнує мету. Знову ж таки, з точки зору наслідків і зовнішніх ефектів, якщо ми не можемо дозволяти людям виконувати домашні завдання, тому що ми більше не знаємо, обманюють вони чи ні, це означає, що все має відбуватися в класі і під наглядом. Ми не можемо нічого брати додому. Більше речей потрібно робити усно, і що це означає? Це означає, що школа просто стала набагато дорожчою, набагато кустарнішою, набагато меншою і саме в той час, коли ми намагаємося зробити навпаки. Наслідки для вищої освіти є руйнівними з точки зору реального надання послуг.

Що ви думаєте про ідею універсального базового доходу або надання можливості кожному брати участь у прибутках від ШІ?

Я набагато менш сильний прихильник, ніж був до COVID. Причина в тому, що COVID у певному сенсі був експериментом із універсальним базовим доходом. Ми платили людям, щоб вони залишалися вдома, і вони придумали QAnon. Тож мене дуже хвилює те, що відбувається, коли людям не потрібно сідати в машину, кудись їхати, робити роботу, яку вони ненавидять, і повертатися додому, тому що диявол знаходить роботу для непрацюючих рук, і буде багато бездіяльних рук і багато дияволства.

Leave a Comment