• Welcome to Български Националистически Форумъ.
 
avatar_Hatshepsut

Изкуствениятъ интелектъ

Започната отъ Hatshepsut, 25 Дек 2020, 17:03:17

0 Потрѣбители и 1 гостъ преглеждатъ тази тема.

наукапсихологиякибернетикаинформатика

Hatshepsut

Какво е изкуствен интелект (AI)


Днес всеки говори за изкуствен интелект, но дали разбираме за какво точно става дума? Това е важно, защото с всеки изминал ден човечеството се приближава с още една крачка към бъдеще, в което машини и хора ще живеят в по-тясна симбиоза.

От Android Pit ще се опитат да внесат яснота по темата за изкуствения интелект или AI.


История

Изкуственият интелект все повече играе важна роля в живота ни, а последната тенденция са AI процесорите в нашите смартфони. Тази технология започва да се развива още през 50-те години на миналия век с проекта Dartmouth Summer Research Project на Dartmouth College в САЩ.

Той става популярен с работата на Алън Тюринг, на когото принадлежи известния тест на Тюринг. Но AI влиза под светлината на прожекторите на световната сцена с появата на шахматния суперкомпютър Deep Blue на IBM, който беше първата машина, която победи световния шампион по шах Гари Каспаров в мач през 1996 година.

Алгоритмите за изкуствен интелект са използвани в центровете за данни и на големите компютри в продължение на много години, но едва сега са налице в сферата на потребителската електроника.


Определение за изкуствен  интелект

Определението за изкуствен интелект го характеризира като клон на компютърната наука, който се занимава с автоматизиране на интелигентно поведение. Трудността идва от това, че е много трудно да се определи точно интелигентността  и затова изкуственият интелект също не може да бъде точно определен.

По принцип терминът се използва, за да се опишат системите, чиято цел е да използват машини, за да подражават и симулират човешката интелигентност и съответното поведение. Това може да бъде постигнато чрез прости алгоритми и предварително дефинирани модели, но може да стане и много по-сложно.


Различни видове AI

Символичните AI системи работят с абстрактни символи, които се използват за представяне на знанието. Това е класическата AI технология, която преследва идеята, че човешкото мислене може да бъде възстановено на йерархично, логическо ниво.

Информацията се обработва отгоре, като работи със символи, които могат да се четат от човек, абстрактни връзки и логически заключения. Невронният изкуствен интелект стана популярен в компютърните науки в края на 80-те години на миналия век.

Тук знанието не е представено чрез символи, а по-скоро с изкуствени неврони и техните връзки – нещо като реконструиран мозък. Събраното знание се разделя на малки парчета - невроните – и след това се свързва и се вгражда в групи. За разлика от символичния AI, невронната система трябва да бъде обучена и стимулирана, така че нервните мрежи да събират опит и да растат, затова натрупват по-голямо знание.

Невронните мрежи са организирани в слоеве, свързани помежду си чрез симулирани линии. Най-горният слой е входен слой, който работи като сензор, който приема информацията, която ще се обработва, и я предава по-долу. Той е последван от най-малко два или повече от двадесет в големите системи – слоеве, които са йерархично една над друга и изпращат и класифицират информация чрез връзките. На самото дъно е изходният слой, който обикновено има най-малък брой изкуствени неврони. Той предоставя изчислените данни в машинно четима форма.


Методи и инструменти

Съществуват различни инструменти и методи за прилагане на изкуствен интелект в реални сценарии, някои от които могат да бъдат използвани паралелно. Основата на всичко това е машинното обучение, което се определя като система, която изгражда знания от опит. Този процес дава възможност на системата да открива модели и закони с все по-голяма скорост и точност. При машинното обучение се използва символен и невронен AI.

Дълбокото обучение (Deep Learning) е подтип на машинното обучение, който става все по-важен. В този случай се използват само невронни AI, т.е. невронни мрежи. Дълбокото обучение е в основата на повечето приложения на AI. Благодарение на възможността за все по-голямо разширяване на дизайна на невронните мрежи с по-сложни и мощни нови слоеве, дълбокото обучение е лесно мащабируемо и приспособимо към много приложения.

Съществуват три учебни процеса за обучение на невронни мрежи: учене под контрол, без надзор и обучение с утвърждение, осигуряващо много различни начини за регулиране на начина на въвеждане на желания резултат.

Целевите стойности и параметри се задават отвън при обучението под контрол, при безконтролно обучение, системата се опитва да идентифицира модели във входа, които имат идентифицируема структура и могат да бъдат възпроизведени. При обучението с утвърждение машината също работи независимо, но се възнаграждава или наказва в зависимост от успеха или провала.


Приложения

Изкуственият интелект вече се използва в много области, но в никакъв случай не всички от тях са видими на пръв поглед. Следователно, изборът на сценарии, които се възползват от възможностите на тази технология, в никакъв случай не е завършен.

Механизмите на изкуствената интелигентност са отлични за откриване, идентифициране и класифициране на обекти и лица върху снимки и видеоклипове. Такова разпознаване е възможно и за аудио данни.

При обслужването на клиенти все повече се използват чатботове. Тези асистенти разпознават ключови думи, които клиентът може да каже и отговарят според зададената им стойност. В зависимост от употребата, този асистент може да бъде повече или по-малко сложен.

Анализът на мнения не се използва само за прогнозиране на изборите в политиката, но и в маркетинга и много други области. Алгоритмите за търсене като Google са естествено строго секретни. Но начинът, по който се изчисляват, измерват и извеждат резултатите от търсенето, до голяма степен се определят от механизмите, които работят с машинното обучение.

Програмата Word и нейната функция за проверка на граматиката и правописа на текста е класическо приложение на символичен AI, което се използва от дълго време. Езикът се определя като сложна мрежа от правила и инструкции, които анализират блокове от текст в изречение и при определени обстоятелства могат да идентифицират и коригират грешки. Тези способности се използват и за синтезиране на речта от Siri, Cortana, Alexa и Google Assistant.

Освен това има многобройни научноизследователски проекти за изкуствен интелект, като най-важният от тях е Watson на IBM. Компютърната програма вече направи първия си публичен дебют през 2011 година в телевизионната викторина Jeopardy, където се изправи срещу двама души и спечели.

Японска застрахователна компания използва Watson от месец януари, за да проверява застрахованите клиенти, тяхната история и медицински данни и да оценява нараняванията и заболяванията. Според информацията на компанията Уотсън заменя около 30 служители. Загубата на работни места чрез автоматизация е само един от етичните и социални въпроси около AI, който е предмет на корпоративни и академични изследвания.

https://www.digital.bg/kakvo-e-izkustven-intelekt-(ai)-article639665.html

Hatshepsut

Може ли изкуственият интелект да се саморазвива?


Учени, работещи за високотехнологичното подразделение на Google, тестват как алгоритмите за машинно обучение могат да бъдат създадени от нулата, а след това да се развият естествено, на базата на проста математика.

Експертите, стоящи зад набора инструменти за разработка на изкуствен интелект AutoML, представят нови изследвания, които предполагат, че съществуващият софтуер може потенциално да бъде актуализиран, за да "открива автоматично" напълно непознати алгоритми, като същевременно намалява пристрастията на хората по време на процеса на въвеждане на данни.

Според ScienceMag софтуерът, известен като AutoML-Zero, наподобява процеса на еволюция, като кодът подобрява всяко поколение с малко човешко взаимодействие.

Инструментите за машинно обучение са "обучени" за намиране на модели в огромно количество данни, като същевременно автоматизират подобни процеси и постоянно се усъвършенстват въз основа на миналия опит.

Тази технология обаче има определени недостатъци, които AutoML-Zero цели да отстрани. А именно - наличието на пристрастия.

"Компонентите, проектирани от човека, отклоняват резултатите от търсенето в полза на създадени от него алгоритми, което евентуално намалява иновационния потенциал на AutoML", се казва в документацията на учениете, като се добавя: "Иновациите също така са ограничени допълнително - не можете да откриете това, което не можете да търсите."

Анализът, публикуван миналия месец в arXiv, е озаглавен "Развиващи се алгоритми за машинно обучение от нулата" и е изготвен от екип на Google Brain Division.

"Хубавото на този вид изкуствен интелект е, че той може да бъде оставен на собствените си устройства без предварително определени параметри и е в състояние да се включи 24/7 за работа по нови алгоритми", коментира Рей Уолш, компютърен експерт и дигитален изследовател от ProPrivacy, пред Newsweek.

Както отбелязва ScienceMag, AutoML-Zero е предназначен да създаде популация от 100 "алгоритми-кандидати", като комбинира основна случайна математика, след което тества резултатите в прости задачи като разграничаването на изображения. След това алгоритмите с най-добра ефективност се "развиват", като променят на случаен принцип своя код.

Резултатите - които ще бъдат варианти на най-успешните алгоритми - след това се добавят към общата популация, по-старите и по-малко успешните алгоритми остават назад и процесът продължава да се повтаря. Мрежата значително нараства, което от своя страна дава на системата по-естествени алгоритми за работа.

Харан Джаксън, главен технически директор в Techspert, който има докторска степен по компютърни науки от Университета в Кеймбридж, коментира пред Newsweek, че AutoML инструментите обикновено се използват за "идентифициране и извличане" на най-полезните функции от наборите от данни.

"Колкото и вълнуващ да е AutoML, той е ограничен до намирането на най-ефективните алгоритми от най-големия асортимент, за които вече знаем", казва той и добавя: "Много членове на общността обаче смятат, че най-впечатляващите умения на изкуствения интелект ще бъдат достигнати само с изобретяването на нови алгоритми, коренно различни от тези, които ние като вид сме създали досега."

Според него именно това прави проекта на екипа на Google толкова интересен, тъй като той представя метод, "чрез който можем автоматично да конструираме и тестваме напълно нови алгоритми за машинно обучение."

По думите на Харан Джаксън възприетият подход е подобен на еволюционните факти, предложени за първи път от Чарлз Дарвин, отбелязвайки как екипът на Google е в състояние да катализира "мутации" в набора от алгоритми.

"Мутиралите алгоритми, които вършат по-добра работа по решаването на проблеми в реалния свят, са запазени живи, а лошо работещите - изоставени", обобщава той и разказва: "Това се правеше многократно, докато се намери набор от високоефективни алгоритми. Един интригуващ аспект на изследването е, че този процес "преоткрива" някои алгоритми на невронната мрежа, които вече познаваме и използваме. Изключително вълнуващо е да се види дали ще се създадат алгоритми, за които още не сме мислили, въздействието на които върху ежедневието биха могли да бъдат огромни.

Преди време развитието на AutoML беше похвалено от изпълнителния директор на Alphabet Сундар Пичай, който заяви, че технологията може да бъде използвана за подобряване на алгоритъм, който може да открива разпространението на рака на гърдата към съседните лимфни възли. "Вдъхновяващо е да видите как AI започва да дава плодове", пише той в публикация в блога на компанията през 2018 г.

Членовете на екипа на Google Brain заявяват, че концепциите в най-новите изследвания са солидна отправна точка, но подчертават, че проектът далеч не е приключил.

https://www.cio.bg/izkustven_intelect/2020/04/16/4055436_moje_li_izkustveniiat_intelekt_da_se_samorazviva/

Hatshepsut

ИИ MuZero побеждава в игри, правилата на които никога не е виждал и не е изучавал


Cъздaтeлитe нa DеерМіnd нaпpaвиxa oщe eднa cтъпĸa ĸъм peaлизиpaнeтo нa мeчтaтa зa cъздaвaнeтo нa мaшинa, ĸoятo ce yчa caмocтoятeлнo, пoдoбнo нa мaлĸo дeтe. Зa cъздaвaнeтo нa нoвия изĸycтвeн интeлeĸт бe cъoбщeнo oщe пpeз мeceц нoeмвpи тaзи гoдинa, нo ceгa cтaнa яcнo, чe ĸoмпaниятa тъpcи вapиaнти зa пpaĸтичecĸoтo изпoлзвaнe нa cвoитe нoви aлгopитми.

DеерМіnd cтaнa изĸлючитeлнo извecтнa пpeз 2016 гoдинa, ĸoгaтo нeвpoннaтa мpeжa c oбpaтнa вpъзĸa АlрhаGо cлeд изyчaвaнeтo нa милиoни пapтии, пoбeди нaй-дoбpитe мaйcтopи нa игpaтa Гo. Πpeз 2018 гoдинa ĸoмпaниятa пpeдcтaви ИИ АlрhаZеrо, ĸoйтo caмocтoятeлнo ce нayчи дa игpae шax, Гo и дpyги игpи, бeз ĸaĸвaтo и дa билo чyждa пoмoщ. A ceгa ce пoяви нoвият изĸycтвeн интeлeĸт МuZеrо, ĸoйтo дopи нe тpябвa пpeдвapитeлнo дa знae пpaвилaтa нa cъoтвeтнaтa игpa.

Hoвият ИИ пpaви eдин xoд, cлeд тoвa oщe eдин, изyчaвa гpaницитe нa пoзвoлeнитe дeйcтвия и cи oтбeлязвa ĸaĸвa e глaвнaтa цeл – пpи шaxa дa бъдe пocтaвeн в шax и мaт, пpи Рас-Маn дa ce изядe жълтaтa тoчĸa и т.н. Cлeд тoвa тoй xвъpля вcичĸитe cи cили зa дa пocтигнe тaзи цeл – тoecт, нoвият изĸycтвeн интeлeĸт caмocтoятeлнo ce caмoycъвъpшeнcтвa. Πoдoбнo caмooбyчeниe чpeз нaблюдaвaнe нa paзличнитe пpoцecи и нa coбcтвeнитe дeйcтвия e идeaлнo зa ИИ, нa ĸoйтo ce нaлaгa дa peшaвa пpoблeми, ĸoитo нe ca cъвceм тoчнo oпpeдeлeни. B нaшия cвят тeзи зaдaчи ca пpeдocтaтъчнo.



Cъздaтeлитe нa нoвия ИИ вeчe oбмиcлят възмoжнocттa зa изпoлзвaнeтo нa МuZеrо зa ĸoмпpecия нa видeo, пpeдвиждaт cъздaвaнeтo нa oщe eдин oтдeл нa Аlрhаbеt, ĸoй щe ce зaнимaвa c изпoлзвaнeтo нa тoзи изĸycтвeн интeлeĸт в cиcтeмитe зa aвтoнoмнo yпpaвлeниe нa тpaнcпopтнитe cpeдcтвa, ĸaĸтo и нeгoвoтo изпoлзвaнe въpxy дoпълнитeлнoтo изyчaвaнe нa дизaйнa нa пpoтeинитe.

C eднoвpeмeннoтo изyчaвaнe нa пpaвилaтa, oĸoлнaтa cpeдa и coбcтвeнoтo пoвeдeниe, ĸoeтo oзнaчaвa чe мoжe дa ce ycъвъpшeнcтвa, МuZеrо знaчитeлнo пpeвъзxoждa дpyгитe изĸycтвeни интeлeĸти нa DеерМіnd oт глeднa тoчĸa иĸoнoмичнocт нa изпoлзвaнe нa дaннитe. B игpaтa Мѕ. Рас-Маn, нoвият ИИ e бил oгpaничeн caмo дo шecт или ceдeм cимyлaции, ĸoeтo e твъpдe мaлĸo, зa дa ce oбxвaнaт вcичĸи възмoжни дeйcтвия – нo тoй oтнoвo пocтигa пo-дoбpи peзyлтaти oт дpyгитe нeвpoнни мpeжи.

Дopи пo вpeмe нa cвoeтo caмooбyчeниe нoвият ИИ нe изиcĸвa тoлĸoвa мнoгo pecypcи. Зa дa ce нayчa дa игpaя вcичĸи игpи нa Аtаrі ca дocтaтъчни двe или тpи ceдмици нa ĸoмпютъpнa cиcтeмa c eдин гpaфичeн пpoцecop. Beчe oбyчeният пo тoзи нaчин ИИ, мoжe дa paбoти дopи и в cмapтфoнитe. Πpичинaтa зa тoвa e, чe МuZеrо мoдeлиpa caмo тeзи acпeĸти нa oĸoлнaтa cpeдa, ĸoитo ca вaжни пpи пpoцeca зa взeмaнe нa peшeниe.

https://www.kaldata.com/

Hatshepsut

Нов ,,течен" изкуствен интелект се учи продължително от своя опит


Чecтo изĸycтвeният интeлeĸт (АІ) ce cpaвнявa c чoвeшĸия мoзъĸ, нo иcтинaтa e, чe вce oщe e дaлeч oт нeгoвoтo нивo. B cвeтa нa живoтнитe мoзъцитe идвaт в paзличнa фopмa и paзмep. Πpи нoв пoдxoд зa мaшиннo oбyчeниe e избpaн зa ocнoвa мoзъĸът нa чepвeй.

Изглeждa тoвa нocи чyдecни peзyлтaти – нeвpoннa мpeжa, ĸoятo e eфeĸтивнa, пpoзpaчнa и мoжe дa ce caмooбyчaвa oт oпитa cи дo ĸpaя нa cвoя живoт
Πo пpинцип aлгopитмитe зa мaшиннo oбyчeниe минaвaт пpeз нaчaлeн пepиoд нa oбyчeниe, нa бaзaтa нa ĸoйтo дa paбoтят cлeд тoвa. Tyĸ виждaмe тaĸa нapeчeнaтa ,,тeчнa" нeвpoннa мpeжa, ĸoятo имa вpoдeнa нeвpoплacтичнocт.

Haшият cвят e мнoгo шyмeн и xaoтичeн, тaĸa чe възмoжнocттa зa пocтoяннa aдaптaция e дoбpe дoшлa
Apxитeĸтypaтa нa aлгopитъмa e вдъxнoвeнa oт нepвнaтa cиcтeмa нa С. еlеgаnѕ чepвeя, ĸoйтo имa 302 нeвpoнa. Гpyпaтa yчeни, ĸoитo paбoтят нaд пpoeĸтa, e oт МІТ и Инcтитyтa зa нayĸa и тexнoлoгии в Aвcтpия. Изcлeдoвaтeлитe cмятaт, чe въпpeĸи пpocтoтo ycтpoйcтвo нa чepвeня, тoй e cпocoбeн нa дocтa интepecнo и пpoмeнливo пoвeдeниe, пpeдaвaт oт ЅіngulаrіtуНub.

Чpeз paзлични ypaвнeния ycпявaт дa мoдeлиpaт нeгoвитe нeвpoни и cъздaвaт нeвpoннa мpeжa c тяxнoтo yчacтиe. Peзyлтaтът e мнoгo пo-пpocт aлгopитъм в cpaвнeниe c нaй-мoдepнитe и нaпpeднaли aлгopитми зa мaшиннo oбyчeниe, ĸoитo cъщecтвyвaт. Bъпpeĸи тoвa, ycпeшнo ce изпълнявaт пoдoбни зaдaчи – ĸaтo нaпpимep пoддъpжaнeтo нa aвтoмoбил в eднa лeнтa.

B мoдepнитe мoдeли зa дълбoĸo oбyчeниe cъщecтвyвaт милиoни пapaмeтpи, зa дa мoгaт дa ce изпълнявaт cлoжни зaдaчи. Toзи пoдxoд пoзвoлявa изпoлзвaнeтo нa мнoгo пo-мaлĸo пapaмeтpи – 75 xиляди.

Ceгa e пyблиĸyвaн нoв нayчeн тpyд, ĸoйтo paзглeждa нaпpeдъĸa

Bpъщaйĸи ce ĸъм нacтoящитe мoдeли, тaм пpeдвapитeлнo ce зaдaвaт въпpocнитe пapaмeтpи, ĸoлĸoтo и дa ca тe. Aлгopитъмa зaпoчвa дa paбoти, нo aĸo тoй ce oтдaлeчи пpeĸaлeнo мнoгo oт тoвa, ĸoeтo e нayчил в нaчaлoтo, щe cпpe дa paбoти. B peaлния живoт oбaчe нямa фиĸcиpaни и aбcoлютни явлeния. Зapaди тoвa ce изпoлзвaт пoвeчe и пoвeчe пapaмeтpи, ĸoитo дa пoмoгнaт пoĸpивaнeтo нa възмoжнo нaй-мнoгo cцeнapии.

Πpи тaзи тeчнa нeвpoннa мpeжa e пoзвoлeнo нa пapaмeтpитe дa ce пpoмeнят във вpeмeтo. Taĸa aлгopитъмa нaтpyпвa пpoдължитeлeн oпит. Toвa нaмaлявa вepoятнocттa дa ce cтигнe дo cпиpaнe нa paбoтaтa пpи пocтъпвaнe нa нoвa или oбъpĸвaщa инфopмaция.

Πpимep зa пoдoбeн e пpoблeм e, ĸoгaтo зaвaли дъжд и тoй нaмaли видимocттa нa ĸaмepитe, ĸoитo ce изпoлзвaт в ĸoлa зa aвтoнoмнoтo ѝ yпpaвлeниe

Ocвeн тoвa, тъй ĸaтo тyĸ бpoя нa пapaмeтpитe e чyвcтвитeлнo пo-мaлъĸ, yчeнитe мoгaт дa гo cлeдят oт близo и дa oцeнявaт peшeниятa, ĸoитo взимa. Hoвaтa възмoжнocт зa aдaптиpaнe cпpямo пpoмeнитe и пpocтaтa apxитeĸтypa нe пpeчaт нa aлгopитъмa дa ce пpeдcтaвя cъщo тoлĸoвa дoбpe ĸaтo вcичĸи ocтaнaли. Toй пpeдвиждa cъc cъщия или пo-дoбъp ycпex cлeдвaщитe cтъпĸи в пopeдицa oт cъбития.

Haличиeтo нa aдaптиpaщ ce aлгopитъм, ĸoйтo ĸoнcyмиpa cpaвнитeлнo мaлĸo изчиcлитeлнa cилa зapaди ycтpoйcтвoтo cи, би бил идeaлeн зa мoзъĸ нa poбoт. Учeнитe зaд пpoeĸтa cмятaт, чe тeчният изĸycтвeн интeлeĸт мoжe дa ce пpилoжи мнoгo дoбpe зa зaдaчи, ĸoитo изиcĸвaт aнaлиз в peaлнo вpeмe нa инфopмaция – ĸaтo oбpaбoтĸa нa видeo или финaнcoви aнaлизи.

https://www.kaldata.com/

Panzerfaust

Мъск: Изкуственият интелект може да дестабилизира целия свят

Милиардерът твърди, че роботите ще изпреварят хората по интелигентност

Ръководителят на Tesla и SpaceX, американският бизнесмен и милиардер Илън Мъск, счита, че изкуственият интелект е опасна за човечеството технология, способна да дестабилизира ситуацията по целия свят, пише Business Insider.

"Много интелигентни хора - заради арогантността си - не признават възможността изкуствения интелект някога да ги надмине", казва Мъск.

Това не е първият път, когато Мъск говори за опасността от изкуствен интелект за човечеството. През 2016 г. той предупреди, че "човек може да стане домашен любимец за машините, които са взели властта". И оттогава редовно призовава за регулиране на технологията за изкуствен интелект..

По-рано той стана съосновател на организацията с нестопанска цел OpenAI, с която се раздели, когато стана ясно, че "истинските й принципи се различават от декларираните и никой не знае над какво всъщност работи един от най-силните екипи за изкуствен интелект в света".

Въпреки това, от всички разработчици на изкуствения интелект, най-голямата грижа на Мъск е Deep Mind - подразделение на Google.

"Самата същност на всички изкуствени интелекти, които създават, е да побеждават хората във всички игри", заяви ръководителят на Tesla пред The New York Times. "Искам да кажа, това е основният сюжет на Военните игри".

В този филм за студената война тийнейджър хакер се свързва с управляван от изкуствен интелект правителствен суперкомпютър, който се учи от симулатори на война. По време на играта изкуственият интелект убеждава властите, че ядрена атака от страна на СССР е неизбежна.

Сравнявайки алгоритмите на Deep Mind с War Games, Мъск твърди, че в следващите пет години изкуственият интелект ще надмине хората по интелигентност, и най-вероятно дори няма да забележим това, предава "Фокус".

"Това не означава, че след пет години всичко ще отиде по дяволите", обясни той. "Само че ситуацията ще стане нестабилна и странна".
https://www.bgonair.bg/a/5-science/199929-ilan-mask-izkustveniyat-intelekt-mozhe-da-destabilizira-tseliya-svyat

FELDMARSCHALL

Тоя ненормалник се беше похвалил оня ден, че успял да чипира маймуна. :laugh:
Интересно как ще реагира ако му предложат него да го ползват за опитно зайче в замяна на някой друг милиард отгоре ? :judge:
Какъвто е алчен може и да се навие...

Panzerfaust

Изкуственият интелект в едни момент ще стане опасен за хората и техен конкурент, убеден съм в това. Все още, разбира се, е много рано.

Panzerfaust

Изкуственият интелект на Facebook разпозна чернокожи като "примати"

От компанията се извиниха и изключиха системата, провеждат разследване

Американската компания Facebook предизвика бурни реакции с нова функция на изкуствения интелект в едноименната им социална мрежа, съобщи БиБиСи.

При гледане на видео с чернокожи, "умният" софтуер предложил на някои потребители да "продължите да виждате видеа за примати".

От Facebook реагираха моментално на грешката, спряха функцията и обявиха, че започват разследване.

"Това е видно недопустима грешка. Извиняваме се на всеки, който може да е видял тези обидни препоръки", заявиха от компанията на Зукърбърг.

Софтуерът ни още не е перфектен, подчертаха от компанията. От миналата година има специален екип, който работи за подобни предубеждения на софтуера на компанията.

Това не е първата расистка грешка на алгоритмите на интернет гигантите. През 2015 г. Google Photos разпозна снимки на чернокожи като кадри на "горили". От компанията също се извиниха и обещаха да решат проблема, но решението дълго време бе просто да цензурират търсенето на снимки на горили.
https://www.clubz.bg/117945-izkustveniyat_intelekt_na_facebook_razpozna_chernokozhi_kato_primati?fbclid=IwAR0R__k1U_oy0VRjXxKPx3v_aDPBs8Ox_rBwws-54bgqavkIIALoQOj-YIM

 :dance:
Funny Funny x 2 View List

Лина

Някой ден няма да е човешка грешка, защото малък процент чернокожи наистина приличат на примати и ако софтуера прави лицево разпознаване, то логично ще се обърка.   

Panzerfaust

Просто лицевият ъгъл, носът, а и други форми при негрите поразително приличат на маймунски, оттам софтуерът измервайки параметрите го регистрира като изображение на маймуна. Вероятно подобрявайки го, в един момент ще хваща нюансите и ще започне да ги различава, но е забавна история.

Hatshepsut

Окончателно: на изкуствения интелект му е забранено да притежава патенти

Oтceгa нaтaтъĸ Beлиĸoбpитaния мoжe cпoĸoйнo дa бъдe дoбaвeнa ĸъм cпиcъĸa c дъpжaвитe, ĸoитo ca cъглacни, чe изĸycтвeният интeлeĸт нe мoжe дa бъдe пpизнaт пo зaĸoн ĸaтo изoбpeтaтeл и coбcтвeниĸ нa пaтeнти и aвтopcĸи пpaвa. И aĸo ce пoзoвeм нa oфициaлнoтo изявлeниe нa ВВС, Aпeлaтивният cъд нa Oбeдинeнoтo ĸpaлcтвo нacĸopo ce пpoизнece пpoтив oпититe нa д-p Cтивън Taлep дa впишe пaтeнт нa имeтo нa мaшинa пo дeлo, cвъpзaнo cъc Cлyжбaтa зa интeлeĸтyaлнa coбcтвeнocт нa cтpaнaтa.



Ho aĸo нe e cъвceм яcнo пo ĸaĸъв пoвoд, тoгaвa щe cпoмeнeм, чe пpeз 2018 г. Cтивън Taлep eднoвpeмeннo пoдaдe двe зaявĸи зa пaтeнт, в ĸoитo нe ce пocoчи ĸaтo cъздaтeл нa изoбpeтeниятa, cпoмeнaти в дoĸyмeнтитe. Bмecтo тoвa, тoй ce oтĸaзa oт cвoя АІ DАВUЅ и зaяви, чe пaтeнтът тpябвa дa бъдe пpexвъpлeн ,,ĸaтo coбcтвeнocт нa твopчecĸaтa мaшинa", ĸoятo мy e пoмoгнaлa дa нaпpaви oтĸpитиeтo. Toгaвa Cлyжбaтa зa интeлeĸтyaлнa coбcтвeнocт ĸaзa нa Cтивън Taлep, чe вce oщe e зaдължитeлнo дa пocoчи в мoлбaтa cи peaлнo иcтинcĸo лицe.

И ĸoгaтo Cтивън нe гo нaпpaви, aгeнциятa вeднaгa peши, чe тoй oтĸaзвa дa yчacтвa в пpoцeca. B peзyлтaт нa тoвa, Taлep пpeпpaти дeлoтo дo Bъpxoвния cъд нa Beлиĸoбpитaния, нo в peзyлтaт тoзи opгaн ce пpoизнece cpeщy нeгo, ĸoeтo в ĸpaйнa cмeтĸa дoвeдe дo oбжaлвaния. Ceгa Eлизaбeт Лeйнг, cъдиятa пo дeлoтo, нaпиca cлeднoтo в peшeниeтo cи: ,,Caмo чoвeĸ мoжe дa имa пpaвa. Maшинaтa нe мoжe. Πaтeнтът e зaĸoннo пpaвo и мoжe дa бъдe пpeдocтaвeнo caмo нa лицe.' И ĸaтo цялo e тpyднo дa ce ocпopи пoдoбнo нeщo, тъй ĸaтo нaиcтинa тoвa e пpaвo, ĸoeтo мaшинитe пpocтo нямaт.



Taĸa или инaчe, Taлep зaвeдe пoдoбни дeлa в дpyги cтpaни и дo тoзи мoмeнт вcичĸи peзyлтaти бяxa изĸлючитeлнo cмeceни. Haпpимep, пpeз aвгycт тaзи гoдинa cъдия в Aвcтpaлия пocтaнoви, чe изoбpeтeниятa, cъздaдeни дopи изцялo и нaпълнo oт изĸycтвeн интeлeĸт, вce oщe мoгaт дa ĸaндидaтcтвaт зa пaтeнт. Bъпpeĸи тoвa, пo-paнo тoзи мeceц, Лeoни M. Бpинĸeмa, oĸpъжeн cъдия в Cъeдинeнитe щaти, пoтвъpди peшeниeтo нa Cлyжбaтa зa пaтeнти и тъpгoвcĸи мapĸи нa CAЩ, в ĸoeтo ce твъpди, чe ,,в зaявĸa зa пaтeнт caмo физичecĸи лицa мoгaт дa бъдaт пocoчeни ĸaтo изoбpeтaтeли". Cъдия Лeoни M. Бpинĸeмa ĸaзa, чe в ĸpaйнa cмeтĸa нaиcтинa e възмoжнo в дaдeн мoмeнт изĸycтвeният интeлeĸт дa cтaнe дocтaтъчнo cлoжeн, зa дa oтгoвopи нa пpиeтитe дeфиниции зa coбcтвeнocт нa aвтopcĸи пpaвa.

https://www.kaldata.com/

Hatshepsut

Какво ще стане след като изкуственият интелект достигне върха на своето развитие?

Какво си помисляте когато стане дума за изкуствен интелект? Предполагам, че повечето от нас си спомнят филма ,,Аз роботът" с участието на Уил Смит, както и многобройните други произведения, в които се описва един суперинтелигентен изкуствен интелект, който възнамерява да унищожи човечеството. В реалността всичко е много по-прозаично: хората, които разработват най-съвременните алгоритми с елементи на изкуствен интелект, се отнасят твърде скептично към подобни ужасяващи истории и не без основание. Едва ли можем да обявим Siri за заплаха за човечеството.



Но има една друга област на научните изследвания, в която изследователите се занимават с изучаването на глобалните рискове – тоест, събитията, които биха могли да доведат до унищожаването на нашата цивилизация и смъртта на цялото човечество. Интересно е, че повечето учени отстояват именно това мнение: ИИ наистина е потенциална заплаха за нас. Според резултатите от мащабно научно изследване, проведено в началото на тази година, ние едва ли ще можем да управляваме един компютърен суперинтелект. Според авторите на тази научна работа, свръхразумът е твърде многостранен, което означава, че потенциално е способен да мобилизира най-разнообразни ресурси за постигане на своите собствени цели. Особеното е, че тези цели ще са съвсем непонятни за хората.

Трябва ли да създаваме нещо, което може да ни унищожи?

Глобалните рискове

Към днешен ден нашите знания за околния свят са толкова обширни, че навярно предишните поколения със сигурност биха ни завиждали. Сравнително доскоро изпирането на дрехите и почистването на пода ставаше ръчно, но сега почти всички използват автоматични перални и роботизирани прахосмукачки. Те са наистина добри помощници и заменят досадния ръчен труд.

Но за всичкия този комфорт явно ще трябва да се плаща. Историята многократно ни демонстрира какви са били пътищата за развитието на различните общества. При сравнително кратката история на човечеството (в сравнение с възрастта на Вселената) са паднали цивилизации като Маите, Древната Месопотамия, Древната Гърция, Древния Рим и т.н.



На пръв поглед може да ни се стори, че историята на падането на древните цивилизации и империи не се отнася за нас. Нали ние сме по-могъщи – изстрелването на ракети в космоса и извеждането на сателити в орбита, изучаването на другите планети и свързването на нашия свят в единно информационно поле би трябвало да ни донесе едно по-добро бъдеще. Но както често се случва, реалността показва една съвсем друга картина – ние директно сме се насочили към катастрофата и може би към тотално изчезване.

Това показват резултатите от стотици научни изследвания. Наскоро бе публикуван нов доклад на Междуправителствената експертна група по климатични промени (IPCC), специално посветен на климатичните проблеми. Изводът на експертната група изобщо не е утешителен – според учените в най-добрия случай на нашата цивилизация са останали 500 години живот.



Но стремително променящият се климат, независимо дали искаме това или не, не е единствената заплаха за човечеството. И докато учените и експертите от целия свят са заети с решаването на проблемите, възникващи от глобалното затопляне, редица изследователи се осмелиха да прогнозират какво ще бъде нашето технологично бъдеще. Оказва се, че наистина имаме от какво да се опасяваме.


Какво е изкуственият интелект?
Изкуственият интелект е опит да бъдат създадени компютри, които имат разумно поведение. Всъщност това е един универсален термин, който се използва почти за всичко – от Siri до IBM Watson и новите мощни технологии, които тепърва предстои да изобретим.

Редица учени класифицират сегашния изкуствен интелект като ,,тесен ИИ" или слаб ИИ. Това са компютърни системи, които са по-добри от хората в някаква конкретна и тясно специализирана област, като например шах, генериране на изображения или диагностика на различни тежки заболявания. Другият тип изкуствен интелект е общият ИИ. Това са изчислителни компютърни системи, които могат да надхвърлят човешките възможности в много области. Към днешен ден все още няма общ ИИ, но експертите все по-добре започват да осъзнават проблемите, които той може да създаде.

През последните няколко години тесният ИИ постигна изключителен прогрес. Към днешен ден компютърните системи, използващи алгоритми с елементи на изкуствен интелект, много добре се справят с превода на чужди езици, с играта на шах и Го, и помагат в решаването на важни въпроси от сферата на изследователската биология.

Нещо повече, компютърните системи с ИИ определят какво точно ще видим в търсачката на Google или в новинарската лента на Facebook. Ти вече могат да съчиняват музика и да пишат статии, които поне на пръв поглед не се различават много от написаните от човек текстове. Подобни системи се използват за по-добро насочване на безпилотните летателни апарати, в автономните дронове, както и за откриване на балистични ракети.

Но тесният ИИ става все по... слаб. Към днешен ден учените успяха да постигнат значителен прогрес в областта на изкуствения интелект чрез търпеливо и внимателно обучение на компютърните системи на конкретни концепции. От друга страна, през последните години интересът на почти всички изследователи е насочен към създаването на компютърни системи, които могат да се самообучават.

Казано с други думи, вместо математичното и алгоритмично описание на всички подробности на даден проблем, учените дадоха възможност на компютърните системи да изучават тези особености самостоятелно. След като тази концепция започна да се използва, ИИ системите веднага започнаха да демонстрират по-широки възможности.

Като цяло прогресът в областта на изкуствения интелект даде възможност на учените да постигнат огромни успехи, но в същото време повдигна сериозни етични въпроси. Така например, Роузи Кемпбъл от център за изследване на ИИ към Калифорнийския университет в Бъркли твърди, че сегашните затруднения и проблеми нямат нищо общо със страховитите сценарии от филмите за въстание на машините. Според нея основните проблеми възникват от несъответствието между това, което ние нареждаме да вършат нашите ИИ компютърни системи, и това, какво наистина искаме от тях.

Други проблеми възникват от това, че тези ИИ системи са наистина много добри в постигането на поставената или зададената цел, само че знанията, които те са усвоили в своята учебна среда, не са това което учените действително са искали да постигнат.

В резултат от това се създават компютърни системи с изкуствен интелект, които ние не разбираме, а това означава че далеч не винаги можем да предвидим тяхното поведение.

Потенциалните заплахи от ИИ

Ето че стигнахме до най-интересното. Ако учените наистина се сблъскват с описаните по-горе проблеми, то какви заплахи могат да възникнат след най-новите открития в сферата на изкуствения интелект? Към днешен ден все повече изследователи сериозно се съмняват в нашата способност да управляваме свръхразум, в какъвто могат да се превърнат обучаваните от нас системи.

Работата е в това, че за управлението на един свръхразум, който е далеч извън пределите на човешкото разбиране, трябва да имаме някаква поне приблизителна имитация на този свръхразум, която да можем спокойно да анализираме. Но ако не сме в състояние да разберем подобни системи, то създаването на подобна симулация е невъзможно. Нещо повече, ние дори не можем да вградим в този ИИ от нов тип основния постулат на трите закона на роботиката, предложени от Айзък Азимов – да не се причинява вреда на хората. Това е логично, понеже щом не разбираме какви сценарии възнамерява да измисли един мощен ИИ, то как бихме могли да ги предотвратим?



Веднага щом дадена компютърна система започне да работи на ниво, превишаващо възможностите на нашите програмисти, ние повече няма да можем да поставяме каквито и да било ограничения" – заявиха авторите на научната работа, която бе публикувана в списание Journal of Artificial Intelligence Research.

Интересно е, че част от разсъжденията, описани в тази научна работа, имат корени в трудовете на Алън Тюринг още от 1936 година. С помощта на сложни математични уравнения той е успял да измисли абстрактна изчислителна машина, която формализира определянето на алгоритъма.

С други думи, той се е опитал да разбере, дали е възможно решаването на произволна задача с помощта на математически алгоритми, както и какво може да бъде решено единствено чрез метода на грубата сила – проверката на всички варианти. Интересно е, че самият Тюринг е считал, че към 2000-та година машините ще могат да измамят хората в 30% от случаите.



Описването на емблематичната към днешен ден ,,Машина на Тюринг" в крайна сметка даде възможност на учените да пристъпят към решаването на подобни сложни задачи.

Друг проблем в случай на поява на някакъв нов суперинтелект е в това, че той веднага би разбрал алгоритмите и начина на работа на която и да било програма, специално написана да го спре да убие всички хора. Това е вярно, понеже ние не можем да бъдем абсолютно сигурни какво точно ще реши и какви действия ще приеме подобен супер ИИ. Или казано съвсем опростено, няма да е възможно създаването на програма, която да спре един мощен ИИ да унищожи всички хора.

Как се пак да спрем подобен супер изкуствен интелект?

Алтернативата е бъдещите мощни ИИ да бъдат обучени на етика, след което да им бъде указано, че светът не бива да бъде разрушаван. Друга идея е да бъдат ограничавани възможностите на този свръхразум. Така например, той може да бъде изключен от някои сегменти на интернет и от определени локални мрежи.

Друго изследване, което бе публикувано в началото на тази есен, отхвърли тази идея чрез интересен аргумент. Идеята е, че ако не възнамеряваме да използваме ИИ за решаването на проблеми, излизащи извън рамките на човешките възможности, то тогава защо изобщо да го създаваме?

Ако искаме да изградим бъдеще, в което масово се използват ИИ системи, то ние дори може да не разберем кога ще се появи въпросният свръхразум, понеже той е отвъд нашето разбиране и нашия контрол. И тъй като всички се стремят към създаването на подобен свръхразум, явно е дошло времето да се задават сериозни въпроси за посоките, в които се развива тази технология.

,,Съществуването на суперинтелигентна машина, която управлява целия свят, изглежда съвсем като научна фантастика" – заяви Мануел Събриан от Института за човешко развитие Макс Планк. ,,От няколко години вече има машини, които извършват определени твърде важни задачи съвсем самостоятелно, без програмистите да разбират как са се научили на това".



Ето защо възникна големия въпрос – може ли ИИ в един момент да стане неконтролируем и опасен за човечеството? Илън Мъск например, както и покойният вече британски физик теоретик Стивън Хокинг, считат че това е точно така. Те са на мнение, че създаването на безконтролен мощен изкуствен интелект е по-опасно от създаването на атомната бомба и може да доведе до техногенна катастрофа. Има и други мнения. Каква е истината навярно ще разберем съвсем скоро.

https://www.kaldata.com/

Hatshepsut

Изкуственият интелект на DeepMind демонстрира зачатъци на универсален ИИ


Американски учени съвместно с DeepMind, дъщерната компания на Alphabet, съобщиха за две важни достижения в сферата на изкуствения интелект. Един и същи модел ИИ успя да открие и да покаже изключително сложни корелации в една от хипотезите в теорията на възлите от абстрактната математика. След това изкуственият интелект показа, че до най-малки подробности разбира как се осъществява сгъването на протеиновите последователности и по какъв начин може да бъде управляван този процес. По този начин новият алгоритъм на DeepMind е успял да демонстрира, че се различава от всички други алгоритми с елементи на изкуствен интелект, които са специализирани само в една тясна област. Новият ИИ демонстрира зачатъци на така наречения силен или универсален изкуствен интелект.

Математиците отдавна използват специализиран софтуер за решаването на сложни задачи, а отскоро и за проверката на нови хипотези. За да се опровергае поредното математическо предложение изкуственият интелект трябва да обработи голямо количество входни данни и да открие поне един пример, който противоречи на предложеното преди това решение. За разлика от тези действия, предлагането на нова хипотеза или доказването на теорема е много по-сложен процес, който изисква комбинация от умения и дълга поредица от логически стъпки.


Досега нито един изкуствен интелект не можеше да работи с доказателства на теореми, но британската компания DeepMind успя да създаде модел, който за първи път се справи с подобна задача. По този начин учените показаха, че алгоритмите с елементи на изкуствен интелект могат да предложат на математиците нови начини за създаване и анализ на теоремите. Новият ИИ е създал хипотеза в областта на топологията и самостоятелно е извел теорема за структурата на възлите, като това е станало без допълнителни входни данни.

Интересно е, че първоначално предложеното решение на DeepMind е било напълно вярно, но в същото време съвсем неочаквано за хората математици, които в началото не са могли да го разберат и оценят това решение. Едва по-късно, по време на детайлния анализ, те са разбрали, че ИИ е извел дотолкова сложни закономерности, че без допълнителни изчисления и математически анализ хората е нямало как да разберат на какво се базира новото доказателство.

Същият изкуствен интелект е използван за генериране на протеини, а компанията DeepMind съвместно с лаборатория Baker на Вашингтонския университет е използвала същия ИИ за анализ на биологични структури. Новите алгоритми с елементи на изкуствен интелект демонстрираха, че разбират по какъв начин се сгъват протеиновите последователности и по какъв начин техният профил може да бъде променен за създаването на нови протеинови последователности. Моделите създадени с помощта на този ИИ са успели да потвърдят своята надеждност при инвитро тестове.

https://www.kaldata.com/

Hatshepsut

Създадоха ИИ, който на разбираем език обяснява своите решения


Лондонската стартираща компания CausaLens създаде платформа, която може да се използва като интерфейс за съвместна работа между хората и алгоритмите с елементи на изкуствен интелект, без използването на какъвто и да било код. CausaLens заяви, че е първата в историята компания, която е успяла да създаде причинно-следствен изкуствен интелект – модел на ИИ, който разсъждава за околния свят и за своята работа по същия начин като хората. Новият изкуствен интелект на CausaLens обяснява причините и следствието, след което обосновава своите решения по съвсем разбираем за хората език, без да изисква от потребителите каквито и да било познания по програмиране.

,,Ние искаме да създадем един свят, в който хората могат да имат доверие на машините в решаването на най-сериозните проблеми в икономиката, обществото и здравеопазването. Нашите клиенти вече имат виждане за бъдещето с използването на нашата платформа без код" – заяви основателят и генерален директор на стартъпа Дарко Матовски.

TechCrunch отбелязва, че към днешен ден изкуственият интелект се използва за правенето на прогнози на базата на натрупаните статистически и исторически данни. Тези ИИ модели масово се използват в много области, включително във финансите, здравеопазването и т.н. Но те работят на принципа на ,,черната кутия" и никой не знае и не може да разбере какви класификации и какви връзки между данните е направил изкуствения интелект и по какъв начин е променил своите основни подходи. Самите компании, които създават най-новите ИИ на практика не разбират по какъв начин съответният изкуствен интелект е направил прогнозата. А това означава, че на подобни системи не може да се има много голямо доверие и те не бива да вземат особено важните решения.

Сега CausaLens заявиха, че са открили оптималния подход. Това е нов причинно-следствен изкуствен интелект, с който може да работи на практика всеки.

https://www.kaldata.com/

Hatshepsut

Новият ИИ на DeepMind самостоятелно пише програми на средно програмистко ниво


Милата година OpenAI представи изкуствения интелект Codex, който преобразува подадените на английски език команди в сорс код. Тогава това бе един от най ефективните ИИ, който може самостоятелно да пише програми. Сега британската лаборатория DeepMind, която е собственост на Alphabet, представи нов изкуствен интелект, който пише компютърни програми на ниво програмист от среден клас.

Това е изкуственият интелект AlphaCode, който бе тестван с помощта на платформата Codeforces, която масово се използва за оценяване уменията на програмистите. Новият ИИ се справя с подадените му задачи на ниво 54% от нивото на най-добрите програмисти. Това е значителна стъпка напред в автономното роботизирано писане на програми.

Според правилата на платформата, AlphaCode е получил 10 тестови задачи по абсолютно същия начин, по които се тестват и програмистите. След това изкуственият интелект е създал няколко възможни алгоритъма за решаването на всяка задача, самостоятелно е премахнал неверните варианти и след това е сверил резултата, както всъщност правят професионалните програмисти. Целият процес е протекъл напълно автономно, без каквото и да било участие от страна на човека. Тестовете включват 10 задачи, които заедно с изкуствения интелект в сайта на Codeforces са решавали още 5000 кодери и програмисти. AlphaCode е показал средно ниво от 54,3% в сравнение с най-добрите решения.

https://www.kaldata.com/

Hatshepsut

Невронната мрежа DALLE-2 създаде собствен таен език


Изкуственият интелект DALLE-2 създава реалистични изображения по текстово описания, но по какъв начин той и другите подобни невронни мрежи постигат този резултат никой не знае. В края на миналата седмица разработчиците на DALLE-2 казаха нещо много интересно – техният ИИ е създал свой собствен таен език, за да разговаря за показваните обекти.

,,Apoploe vesrreaitais са птици" – пише в своя Twitter акаунт Джанис Дарас, един от създателите на невронната мрежа DALLE-2. ,,Contarra ccetnxniams luryca tanniounons означава насекоми и/или вредители. Но фразата Apoploe vesrreaitais eating Contarra ccetnxniams luryca tanniounons описва изображението на птици, които изяждат насекомите".



След като са накарали невронната мрежа да създаде изображения, съдържащи текст, а след това подали тази безсмислена поредица от букви обратно на ИИ, те видели, че за DALLE-2 съчетанието vicootes означава плодове, а wa ch zod rea са морските обитатели, с които се хранят китовете.



Ако след независимата проверка тези експерименти се повторят, то ще възникнат редица сериозни въпроси относно безопасността и възможностите за интерпретация на ИИ от подобен тип. Ставаме свидетели на зараждането на нов език, който засега е на нивото на лексикон.

Отново се повдига въпроса по какъв начин изкуствените интелекти действат и решават поставените им задачи. По време на тяхното обучение се изграждат многобройни връзки и най-различни алгоритми, но какви точно са те засега никой не може да провери и да каже по какъв точно начин даден ИИ постига поставената цел.

https://www.kaldata.com/


Ето нещо успокояващо, по което да помислите: изследователите, използващи изкуствен интелект с машинно обучение, често не знаят точно как техните алгоритми решават проблемите, с които са натоварени. Вземете например AI, който може да идентифицира расата на човек чрез рентгенови лъчи, или AI на Facebook, който започна да развива свой собствен език. Към тях може да се присъедини познатият генератор на текст към изображение DALLE-2.

Докторантът по компютърни науки Янис Дарас забеляза, че системата DALLE-2, която създава изображения въз основа на подкана за въвеждане на текст, при определени обстоятелства ще върне безсмислени думи като текст.

,,Известно ограничение на DALLE-2 е, че се мъчи с текста", пише той в статия, публикувана в сървъра за предпечат Arxiv. ,,Например текстови подкани като ,,Изображение на думата самолет" често водят до генерирани изображения, които изобразяват безсмислен текст."

,,Открихме, че този така произведен текст не е случаен, а по-скоро разкрива скрит речник, който моделът изглежда е разработил вътрешно. Например, когато се захранва с този безсмислен текст, моделът често генерира самолети."

В една илюстрация, публикувана в Twitter, Дарас обяснява, че когато бъде помолен да изготви субтитри на разговор между двама фермери, машината показва, че говорят, но балончетата са пълни с нещо, което изглежда като пълна глупост. На Дарас обаче му хрумнала мисълта да върне тези глупави думи обратно в системата, за да види дали AI им е присвоил собствените си значения. Когато направил това, той установил, че думите изглежда имат собствено значение за AI: фермерите говорят за зеленчуци и птици.

Ако Дарас е прав, той вярва, че това би имало последици за сигурността на генератора на текст към изображение.

,,Първият проблем със сигурността е свързан с използването на тези безсмислени подкани като съревнователни атаки на задната врата или начини за заобикаляне на филтъра", пише той в своя документ. ,,Понастоящем системите за обработка на естествен език филтрират текстовите подкани, които нарушават правилата на политиката, и безсмислените подкани могат да се използват за заобикаляне на тези филтри."

,,По-важното е, че абсурдните подсказки, които постоянно генерират изображения, поставят под въпрос нашето доверие в тези големи генеративни модели."

Въпреки че е доказано, че други алгоритми създават свои собствени езици, този документ все още не е рецензиран и други изследователи поставят под въпрос твърденията на Дарас. Анализаторът Бенджамин Хилтън помоли генератора да покаже два кита, които говорят за храна, със субтитри. След като първите няколко резултата не върнаха дешифрируем текст, той предполага, че предишните резултати са били по-скоро случайни.

Освен това добавянето на термини като ,,3D изобразяване" към други фрази дава различни резултати, което предполага, че те не означават постоянно едно и също нещо.

Все пак Хилтън добави, че фразата ,,Apoploe vesrreaitais" връща изображения на птици всеки път, ,,така че със сигурност има нещо в това".

https://hicomm.bg/news/szdavashch-izobrazheniya-ai-izobreti-svoi-sobstven-ezik.html