Preco_umela_inteligencia_stale_nefunguje_pri_online_videach_s_nasilim

Umelá inteligencia dokáže identifikovať ľudí na obrázkoch, nájsť ďalší televízny seriál, ktorý by ste si mohli chcieť pozrieť na Netflixe a dokonca aj riadiť automobil.

Ale nedávno, keď podozrivý terorista z Nového Zélandu na Facebooku vysielal živé video masovej vraždy, táto technológia zlyhala. Hrozivé vysielanie trvalo až 17 minút, kým ho novozélandská polícia sociálnej sieti neoznámila. Nahrávky z videa a súvisiace príspevky sa následne ďalej šírili cez sociálne médiá.

Prečo sa umelej inteligencií (AI), ktorú už využívajú veľké sociálne siete nedarí obmedzovať fotografie a videá, ktoré používatelia odovzdávajú, alebo by sa mali jednoducho snažiť nasadiť stále väčšie opatrenia, aby sa takéto násilie čo najrýchlejšie odstránilo?

Veľkým dôvodom je to, že či už je to nenávistné písané príspevky, pornografia, násilné obrázky alebo videá, umelá inteligencia ešte stále nie je vhodnou, keďže stále nevie vhodne vyhodnocovať objektívny online obsah. To je do značnej miery preto, že zatiaľ čo ľudia sú vhodnými pri zisťovaní kontextu, ktorý súvisí s aktualizáciou statusov, kontext je pre umelú inteligenciu zložitou vecou na pochopenie.

Umelá inteligencia však v posledných rokoch prešla dramatickými vylepšeniami a Facebook, Twitter, YouTube, Tumblr a iné siete sa čoraz viac spoliehajú na kombináciu umelej inteligencie a moderátorov obsahu, za účasti polície, ktorý býva zverejňovaní používateľmi.

Obrovský objem statusov

Ale s obrovským objemom príspevkov, ktoré sa objavujú na týchto stránkach každým dňom je pre túto kombináciu ľudí a strojov ťažké udržať krok. Umelá inteligencia má ešte pred sebou dlhú cestu, než dokáže spoľahlivo odhaliť nenávisť alebo tzv. online násilie.

Strojové učenie a techniky umelej inteligencie od technologických spoločností sú závislé na tom, že nájdu obsah, ktorý nie je z morálneho hľadiska v poriadku a zistia, ako si všimnúť podobné vzory v toľkom množstve údajov; dokážu identifikovať urážlivé vyjadrenia, vo videách alebo obrázkoch v špecifických kontextoch. Je to preto, že tieto druhy príspevkov nasledujú vzory, na ktorých je možné umelú inteligenciu trénovať. Napríklad, ak dáte algoritmu strojového učenia množstvo obrázkov zbraní alebo náboženské prejavy hnevu, môže sa naučiť tieto veci nachádzať v iných obrázkoch a texte.

Avšak, umelá inteligencia nie je vhodnou v pochopení štýlu, “ako-kto-čo“ píše alebo aký obrázok nahráva, alebo čo by to mohlo byť dôležité v blízkom sociálnom či kultúrnom prostredí.

Daniel Lowd, docent na University of Oregon, ktorý študuje umelú inteligenciu a strojové učenie, poznamenal: „Obzvlášť, keď ide o statusy, ktoré podnecujú násilie, kontext je „veľmi dôležitý.““

V niektorých prípadoch však komentáre môžu z povrchného hľadiska znieť veľmi násilne, ale v skutočnosti sú protestom proti násiliu. Dokonca môžu znieť neškodne, ale byť identifikovateľné ako nebezpečné pre niekoho, kto má vedomosti o nedávnych udalostiach alebo miestnej kultúre, v ktorej boli vytvorené.

“Veľa krát je tak vidno rozsiahly objem dopadov niekoľkých slov, ktoré je potrebné posudzovať od kultúrneho kontextu,” poznamenal Lowd a poukázal na to, že aj tzv. moderátori sa stále snažia analyzovať ich vrámci sociálnych sietí.

Súvisiace: Pinterest chce byť platformou proti sociálnym médiám

Identifikácia násilia

Aj keď sa zdá, že násilie je zobrazené vo videu, nie je vždy tak jednoduché a je náročné to rozoznať pomocou človeka – nieto ešte vytrénovaným strojom – je treba to prehrať a následne sa rozhodnúť, čo s ním najlepšie urobiť. Zbraň vo videu alebo fotografii nemusí byť viditeľná, alebo to, čo sa javí ako násilie, môže byť v skutočnosti len simulácia a prechádzanie.

Okrem toho faktory, ako je osvetlenie alebo zachytenie pozadia, môžu byt na technológiami nesprávne vyhodnotené.

Sarah T. Robertsová, asistentka profesora na UCLA, ktorá skúma moderovanie obsahu vrámci sociálnych médií, uviedla: “Najmä z technologických možností je veľmi náročné použiť umelú inteligenciu pre vyhľadávanie násilia zobrazenom vo videu.

Ďalej poznamenala: “Zložitosť týchto médií, špecifickosť jednotlivých okolností, ako aj rozsah snímkov za sekundu, alebo následné vsunutia, ktoré menia zmysel zobrazeného – jedná sa o veľmi náročné okolnosti.“

Nie je to jednoducho tak, že použitie umelú inteligenciu na získanie významu videa, celé je to náročným procesom. Je to dokonca potreba vykonávať vrámci rozsiahlych objemov videí, ktoré sa na na týchto sieťach zobrazujú deň čo deň. Napríklad na stránke YouTube používatelia odovzdávajú viac ako 400 hodín videa za minútu – alebo viac ako 576 000 hodín denne.

Robertsová nakoniec poznamenala: “Stovky tisíc hodín videa je to, čo tieto spoločnosti potrebujú obsiahnuť,” … “To je vlastne to, čo žiadajú a čo je ich produktom.”

( AK by niekoho bavili preklady podobných “finančných článkov” pre komunitný projekt, nech sa Nám ozve na Facebook do správy )

Zdroj: Yahoo, MSN

Facebook komentár