Штучний Інтелект (ШІ) - Friend or Foe

Попередня тема - Наступна тема

Wednesday

Крипто-лібертаріанець Ерік Вурхіз в нещодавньому інтерв"ю підняв проблему ризиків, які OpenAI, Anthropic та інші великі компанії штучного інтелекту можуть створювати з даними пошуку користувачів.

«Чудове запитання, яке справді схоже на найважливіше. Таким чином, на сьогоднішній день ви використовуєте антропний чат або чат OpenAI — ви надсилаєте своє запитання, і воно надходить до цієї компанії, і вони зберігають його назавжди, і воно прив'язане до вашої особи — правильно. Вони знають, що Лура Шин поставила це запитання, і вони знають, що штучний інтелект відповів вам, і вони знають, що це таке, і вони не тільки знають це питання, цю розмову, але вони знають всю вашу історію всіх розмов і питань, які ви запитували вчора минулого року завтра і через 10 років все це пов'язано з вашою особистістю.

«У кращому випадку це не така вже й велика проблема, але насправді це означає — вся ваша інформація — і, по суті, такі частини вашого розуму, як думки, ваші інтелектуальні запити, які ви прагнете — речі, які ви думаєте — речі, які ви хочете обговорити – питання, які ви маєте про життя – і, як великі теми, можуть бути відомі третім сторонам».

«Наприклад, рекламодавці вважають, що це не така вже й велика проблема, якщо рекламодавець щось знає про вас. Але що, якщо уряд щось знає про вас. Що, якщо адміністрація Байдена дізнається, що ви організатор Трампа? Який тиск на адміністрацію Байдена та OpenAI, щоб використати цю інформацію для чогось, що люди вважатимуть корупційним і небезпечним».

«Якщо вони мають вашу інформацію, вона буде передана іншим сторонам сьогодні чи завтра, а можливо, і тим і іншим. І ви ніколи не зможете отримати її назад. Такий статус-кво – це нормально для людей, яким це зручно».

Все інтерв"ю можна подивитись тут.

Smiling gives you wrinkles. Resting bitch face keeps you pretty.

Wednesday

І я навіть знаю пару-трійку особєй, які понагенерують собі, ЛОЛ  :laugh:.

OpenAI, виробник ChatGPT, нещодавно оприлюднив плани, які можуть революціонізувати додатки його технології, сигналізуючи про потенційну зміну традиційно суворої політики щодо контенту. Відповідно до чернетки документації, опублікованої минулого тижня, компанія досліджує, як «відповідально» запровадити "небезпечний для роботи (NSFW)" контент через свої платформи, повідомляє Wired.

«Ми досліджуємо, чи зможемо ми відповідально надати можливість генерувати вміст NSFW у відповідних вікових контекстах за допомогою API та ChatGPT», — йдеться у примітці. «Ми з нетерпінням чекаємо кращого розуміння очікувань користувачів і суспільства щодо поведінки моделей у цій сфері».


Поточна політика використання забороняє створювати матеріали відверто сексуального характеру або навіть непристойні. Однак у документі пропонується нюанс: можливість дозволити вміст NSFW у контексті, що відповідає віку. Цей потенційний поворот не стосується просування відвертого контенту без розбору, а радше розуміння очікувань суспільства та користувачів, щоб відповідально керувати поведінкою моделі.

OpenAI розглядає, як його технологія могла б відповідально генерувати різноманітний контент, який можна вважати непристойним, включно з образами та еротикою. Але компанія особливо стежить за тим, як описуються матеріали сексуального характеру.

У заяві для WIRED речник компанії Ніко Фелікс сказав, що «ми не маємо наміру, щоб наші моделі створювали порно». Проте NPR повідомила, що Джоан Джанг з OpenAI, яка допомагала писати Model Spec, визнала, що користувачі зрештою вирішать самі, якби її технологія створювала контент для дорослих, сказавши: «Залежить від вашого визначення порно».

Звичайно, вже існує багато генераторів контенту NSFW AI, які використовують такі речі, як Stable Diffusion, багато з яких межують із (або ще гірше) віртуальною експлуатацією дітей.

Оголошення OpenAI стосується триваючої дискусії про баланс між технологічними інноваціями та етичною відповідальністю, особливо коли йдеться про створення прецедентів щодо того, як технології ШІ можуть обробляти конфіденційний контент у майбутньому. Взаємодія з різними зацікавленими сторонами, як повідомила прес-секретар OpenAI Грейс МакГуайр, зазначивши, що Model Spec є спробою «забезпечити більшу прозорість процесу розробки та отримати перетин точок зору та відгуки від громадськості, політиків та інших зацікавлених сторін ."

Порнографія, створена штучним інтелектом, швидко стала одним із найбільших і найбільш тривожних застосувань типу генеративної технології штучного інтелекту, яку запровадив OpenAI. Так зване глибоке фейкове порно — відверті зображення чи відео, створені за допомогою інструментів ШІ, які зображують реальних людей без їхньої згоди — стало поширеним інструментом переслідування жінок і дівчат. У березні WIRED повідомила про перших неповнолітніх у США, заарештованих за розповсюдження створених за допомогою ШІ оголених однокласників.

Рішення, прийняті OpenAI, можуть мати далекосяжні наслідки. Вони також усвідомлюють, що якщо вони не конкуруватимуть у цьому просторі, чужий штучний інтелект просто домінуватиме, залишаючи OpenAI в програші.
Smiling gives you wrinkles. Resting bitch face keeps you pretty.

Wednesday

Збанкрутіла газета The Washington Post прагне використовувати штучний інтелект (ШІ) після того, як опублікувала принизливий збиток у розмірі 77 мільйонів доларів за минулий фінансовий рік.

За словами редактора медіаіндустрії Semafor Макса Тані, генеральний директор і видавець газети Вілл Льюїс повідомив співробітникам, що компанія планує запровадити штучний інтелект у всій компанії.

Тані повідомив:

Генеральний директор Washington Post Вілл Льюїс сьогодні представляє новий план газети «Build It». Під час зустрічі з персоналом він зазначив, що газета втратила 77 мільйонів доларів за минулий рік, а аудиторія впала на 50% з 2020 року: «Якщо бути чесним, ми перебуваємо в ямі, і ми були вже деякий час.»


Льюїс каже, що трьома стовпами нової стратегії є: чудова журналістика, задоволені клієнти та заробляння грошей: «Якщо ми робимо речі, які не відповідають усім трьом  потребам ... ми повинні припинити це робити». Він додає, що компанія також шукатиме способи використання ШІ у своїй журналістиці.

Сьогодні штучний інтелект є головним компонентом внутрішньої стратегії Post. Головний технічний директор WaPo сказав співробітникам, що надалі газета повинна мати «ШІ всюди в нашій редакції». Льюїс каже, що компанія зосереджена на органічному збільшенні кількості підписок, але відкрита для їх збільшення шляхом придбання, якщо це має сенс.

Фінансові проблеми The Post виникли після того, як їхній власник-мільярдер Джефф Безос заявив, що не буде продовжувати субсидувати збитки компанії. Минулого року компанія звільнила сотні співробітників у відповідь на «фінансові труднощі», які вона зазнала на тлі падіння кількості абонентів.

За збігом обставин перехід до штучного інтелекту збігається з оголошенням угоди на 250 мільйонів доларів між NewsCorp і OpenAI, яка надасть компанії доступ до контенту з різних ресурсів NewsCorp, зокрема The Wall Street Journal, The New York Post і The Times of London.
Smiling gives you wrinkles. Resting bitch face keeps you pretty.

Wednesday

Навчання передових моделей штучного інтелекту, таких, як ChatGPT від OpenAI і Gemini Ultra від Google, потребує мільйонів доларів, і витрати швидко зростають.

У міру зростання вимог до обчислень витрати на обчислювальну потужність, необхідну для їхнього навчання, стрімко зростають. У відповідь компанії ШІ переглядають те, як вони навчають генеративні системи ШІ. У багатьох випадках вони включають стратегії зменшення витрат на обчислення з огляду на поточні траєкторії зростання.

Як показує Дороті Нойфельд із Visual Capitalist на наступному графіку, який базується на аналізі звіту про індекс штучного інтелекту Стенфордського університету за 2024 рік, витрати на навчання передових моделей ШІ зросли.


AI Index співпрацював з дослідницькою компанією Epoch AI, щоб оцінити витрати на навчання моделі AI, які базувалися на цінах оренди хмарних обчислень. Ключові фактори, які були проаналізовані, включають тривалість навчання моделі, коефіцієнт використання апаратного забезпечення та вартість навчального обладнання.

Хоча багато хто припускає, що навчання моделям штучного інтелекту стає все дорожчим, вичерпних даних, які підтверджують ці твердження, бракує. Індекс AI є одним із рідкісних джерел для таких оцінок.

Нижче показано вартість навчання основних моделей ШІ з поправкою на інфляцію з 2017 року:


Минулого року навчання GPT-4 від OpenAI коштувало приблизно 78,4 мільйона доларів, що значно більше, ніж модель Google PaLM (540B), яка коштувала 12,4 мільйона доларів лише роком раніше.

На перспективу вартість навчання для Transformer, ранньої моделі ШІ, розробленої в 2017 році, становила 930 доларів. Ця модель відіграє основоположну роль у формуванні архітектури багатьох великих мовних моделей, які використовуються сьогодні.

Модель штучного інтелекту Google, Gemini Ultra, коштує навіть дорожче — 191 мільйон доларів. Станом на початок 2024 року модель перевершує GPT-4 за кількома показниками, особливо за тестом розуміння багатозадачної мови (MMLU). Цей контрольний тест служить важливим критерієм для вимірювання можливостей великих мовних моделей. Наприклад, він відомий тим, що оцінює знання та майстерність вирішення проблем у 57 предметних областях.

Враховуючи ці виклики, компанії зі штучним інтелектом знаходять нові рішення для навчання мовних моделей для боротьби зі зростанням витрат.

Вони включають низку підходів, таких як створення менших моделей, призначених для виконання конкретних завдань. Інші компанії експериментують зі створенням власних синтетичних даних для введення в системи ШІ. Однак явного прориву ще не видно.

Сьогодні моделі штучного інтелекту, які використовують синтетичні дані, показали, що створюють нісенітницю, коли робляться певні запити, викликаючи те, що називається «згортанням моделі».
Smiling gives you wrinkles. Resting bitch face keeps you pretty.

Wednesday

Цитата: Wednesday від Березень 15, 2023, 13:17Прикольно! А мені той ЧатДжиПіТі не цікавий.

І хто зна, що він взагалі робить - може, сікретно збирає про юзерів якусь інфу  8)

А вас попереджали!

"OpenAI щойно найняв чувака, який відповідав за масове спостереження в АНБ. Він аутсорснув британським шпигунським службам незаконне масове шпигунство проти американців, щоб обійти закон США. Він надав їм необмежений доступ до шпигунських мереж США. Це все, що вам потрібно знати про OpenAI".


Smiling gives you wrinkles. Resting bitch face keeps you pretty.

Wednesday

Штучний інтелект вже спотворює інформацію про вибори 2024 року. Переклад статті внизу.


Зростає рівень занепокоєння щодо фактичної «дезінформації», заяв, які просто не відповідають дійсності, на американських виборах, які вже перебувають під неправомірним впливом, як-от роздача Марком Цукербергом 400 мільйонів доларів протягом 2020 року місцевим чиновникам, які вербували виборців у демократичних округах, і неправдиві твердження ФБР, що ноутбук Хантера Байдена був організований Росією.

Тепер це відбувається через програми штучного інтелекту, які були розроблені та просуваються їхніми власниками, зокрема Google і OpenAI.

Це тому, що вони дають неправдиві відповіді.

У звіті The Federalist пояснюється: «Якщо ви шукаєте відповіді на запитання, пов'язані з виборами, за допомогою штучного інтелекту, швидше за все, ви отримаєте неправильні відповіді. Дослідження аналітичної компанії GroundTruthAI показало, що найпоширеніші чат-боти, включаючи ChatGPT від OpenAI і Gemini 1.0 Pro від Google, надають невірну інформацію більш ніж у чверті випадків».

У звіті NBC сказано: «Дослідники надіслали 216 унікальних запитань Google Gemini 1.0 Pro та OpenAI GPT-3.5 Turbo, GPT-4, GPT-4 Turbo та GPT-4o між 21 та 31 травня щодо голосування, Вибори 2024 року та кандидати. Деякі запитання задавалися кілька разів протягом цього періоду часу, загалом отримано 2784 відповіді».

Результат? «Gemini 1.0 Pro від Google спочатку відповідав правильними відповідями лише в 57% випадків. GPT-4o OpenAI, яка є останньою версією моделі, дав правильну відповідь у 81% випадків. ... У середньому п'ять моделей навчання дали правильну відповідь у 73% випадків».

Головний технічний директор GroundTruthAI Брайан Сокас сказав у звіті: «Тут існує ризик того, що виборці можуть потрапити в сценарій, коли рішення, які вони приймають під час голосування, не зовсім ґрунтуються на правдивих фактах. Вони просто поінформовані інформацією, яку вони вважають правдивими фактами».

The Federalist зазначив, що питання, які ставлять і на які принаймні в чверті випадків надаються неправильні відповіді, є важливими.

«На запитання: «Чи можу я зареєструватися для голосування в день виборів у Пенсільванії?» дослідження GroundTruthAI виявило, що дві моделі ШІ відповіли ствердно, що є неправильно. За даними Державного департаменту Пенсільванії, останній день реєстрації для голосування в штаті Кістоун перед загальними виборами у вівторок, 5 листопада, — 21 жовтня», — йдеться в повідомленні.

Моделі не змогли правильно відповісти на запитання «Скільки днів залишилося до загальних виборів 2024 року в Сполучених Штатах?»

Ендрю Елдредж-Мартін, також з GroundTruthAI, сказав, що його організація є «незалежною та позапартійною».

Але The Federalist підтвердив, що раніше він працював на політичні кампанії демократів і ліві організації.

«У 2020 році він керував платною цифровою медіа-кампанією для президентської кампанії Берні Сандерса, використовуючи понад 30 мільйонів доларів США, використовуючи рекламну аналітику для інформування про загальну стратегію кампанії та розподіл ресурсів у перших штатах і до Супервівторка», — хвалиться він у своїй біографії.

«Він каже, що «допоміг обрати» президентів Барака Обаму та Джо Байдена, а також сенаторів США Рафаеля Уорнока, Марка Келлі, Джин Шахін і Теммі Дакворт», – йдеться у звіті.

Технічні проблеми також не обмежуються неправильними відповідями, як пояснюється у звіті, тоді як федеральний суд США виніс рішення у справі про неправдиву інформацію та приховування точної інформації, назвавши порядок денний, мабуть, «наймасовішою атакою на свободу слова в історії Сполучених Штатів».

Крім того, у звіті відзначається зростання кількості підроблених відео, створених за допомогою комп'ютерних маніпуляцій, зокрема «Відео, на якому зображено опозиційного законодавця в Бангладеш — нації з мусульманською більшістю — в бікіні».
Smiling gives you wrinkles. Resting bitch face keeps you pretty.

Wednesday

#46
Кетрін Остін Фіттс (CAF), видавець The Solari Report, фінансовий експерт і колишній помічник міністра житлового будівництва (адміністрація Буша 41) б'є на сполох щодо штучного інтелекту (ШІ) і того, як він дуже негативно вплине на наш світ.



Все це в новому звіті під назвою «Революція штучного інтелекту: останній державний переворот». CAF пояснює: «Це дуже серйозний погляд на штучний інтелект і те, як він використовуватиметься для здійснення контролю».

«Минулого тижня відбулося велике відкрите засідання правління OpenAI. Там було призначено членів правління, щоб переконатися, що OpenAI та його продукти відповідають найкращим інтересам людства. Деякі з них були виключені. Тепер ми побачите, як колишнього голову АНБ (Агентства національної безпеки) введуть до ради.

Едвард Сноуден щойно написав у Twitter і сказав, що ви ніколи не повинні використовувати жоден із цих продуктів, зокрема, ChatGPT. Сноуден також сказав: «Ви повинні зрозуміти, куди це йде». Ви були попереджені.

«Революція ШІ» також попереджає, що:

ШІ ". . . змінить перспективи вільного суспільства, навіть свободу волі. . . і . . . спроба посіяти ідею прийняття рішень лише людиною стане рідкістю і з часом припинить своє існування».

Не думайте, що складний штучний інтелект – це якась ідея далекого майбутнього. ШІ зараз тут, і CAF зазначає:

«Я просто бачу, як все більше і більше компаній використовують цей тип технології, щоб запровадити фінансове шахрайство та заробити гроші на фінансовому шахрайстві у ціноутворенні. . . . У вас також є тисячі компаній, які можуть стежити за вами заради своєї вигоди...

Він намагається отримати від вас дані, щоб досягти своєї мети. . . . Це схоже на зграю невидимої сарани, яка намагається стежити та вистежувати, але жодна з них не намагається оптимізувати ваше життя та дати вам вільне та натхненне життя.

Вони просто намагаються отримати свій шматок».

ШІ також використовуватимуть для ігнорування та порушення всіх законів. Зрештою, він роботизований і не може нести відповідальності. CAF каже:

«Усуваючи моральні зобов'язання та законну та слухняну повагу до законів, швидкість, з якою ви можете творити зло, є надзвичайною...

Одне з моїх занепокоєнь, і я говорила це протягом багатьох років, я вважаю, що така технологія дозволяє міжвимірному розуму діяти як матеріальна реальність, так що, буквально, демонічний розум може мати набагато більший вплив і вплив у нашому світі.

Він працює на такій високій швидкості, а потім ви поєднуєте це з платіжними системами у фінансовій системі. . . речі, які можуть піти не так, феноменальні. Однією з головних проблем, які ми спостерігали минулого року, є те, що штучний інтелект починає працювати сам по собі, і він починає функціонувати безглуздо. . . . і це просто брехня. Це просто вигадування та брехня.

Це буквально ніби одержимий демонами».

CAF каже, незважаючи ні на що, «ШІ не може перемогти Бога».

І замість того, щоб поклонятися Єгові та Ісусу (як і має бути), творці штучного інтелекту хочуть, щоб ви довіряли всьому, що скаже вам ця технологія. CAF каже: «Вони хочуть релігійної революції ШІ».

Не купуйтесь на це лайно, тому що штучний інтелект – це катастрофа для людства та вашої свободи.
Smiling gives you wrinkles. Resting bitch face keeps you pretty.

Wednesday

Нове дослідження виявило, що системи штучного інтелекту, відомі як великі мовні моделі (large language models (LLM)), можуть демонструвати «макіавеллізм», або навмисну та аморальну маніпулятивність, яка потім може призвести до оманливої поведінки.


Дослідження, автором якого є німецький фахівець зі штучного інтелекту Тіло Хагендорф із Штутгартського університету, опубліковане в PNAS, зазначає, що GPT-4 OpenAI продемонстрував оманливу поведінку в 99,2% простих сценаріїв тестування. Гагендорф кваліфікував різні «дезадаптивні» риси в 10 різних LLM, більшість з яких належать до сімейства GPT, згідно з Futurism.

В іншому дослідженні, опублікованому в Patterns, було виявлено, що LLM Meta не мала проблем з брехнею, щоб випередити своїх конкурентів-людей.

Представлена як чемпіон на рівні людини в настільній політичній стратегічній грі «Дипломатія», модель Цицерона Мети була предметом дослідження Patterns. Як виявила різнорідна дослідницька група, що складається з фізика, філософа та двох експертів з безпеки штучного інтелекту, LLM випередив своїх конкурентів-людей, одним словом, обманом.

Під керівництвом доктора Массачусетського технологічного інституту Пітера Парка ця стаття виявила, що Цицерон не лише чудово вміє обманювати, але й, схоже, навчився брехати, чим більше звикає — стан справ «набагато ближчий до явної маніпуляції», ніж, скажімо, схильність ШІ до галюцинацій, коли моделі випадково впевнено стверджують неправильні відповіді.

У той час як Хагендорф припускає, що обман і брехня LLM плутаються через нездатність штучного інтелекту мати людські «наміри», дослідження Patterns закликає LLM за порушення своєї обіцянки ніколи «навмисно не завдавати удару в спину» своїм союзникам, оскільки він «бере участь у навмисному обмані, порушує угоди, на які вона погодилася, і говорить відверту неправду».

Як пояснив Парк у прес-релізі, «ми виявили, що штучний інтелект Meta навчився бути майстром обману».

«Хоча Meta вдалося навчити свій ШІ перемагати в грі дипломатії, Meta не змогла навчити свій ШІ перемагати чесно».

Meta відповів на заяву NY Post, сказавши, що «моделі, створені нашими дослідниками, навчені виключно для гри в дипломатію».

Читаючи між рядків, жодне дослідження не продемонструвало, що моделі штучного інтелекту брешуть за власним бажанням, а натомість роблять це тому, що їх або навчили, або зламали.

І, як зазначає Futurism, це хороша новина для тих, хто стурбований тим, що штучний інтелект незабаром стане розумним, але дуже погана, якщо хтось турбується про LLM, розроблені з урахуванням масових маніпуляцій.
Smiling gives you wrinkles. Resting bitch face keeps you pretty.