inmargo.blogspot.com

Az iNapló IT szemléje - ELTE-LIS + iNapló - Fodor János

2011. május 20., péntek

Beszélgetés a szemantikus webről

   A Mindentudás Egyetemén február 13-án a szemantikus webről beszélgetett Kornai András (matematikus, nyelvész), Lévai Balázs, Pléh Csaba (pszichológus, nyelvész) , Prószéky Gábor (matematikus, nyelvész) , Szakadát István (matematikus-mérnök, szociológus) és Varasdi Károly (nyelvész).


   Szakadát István szerint Tim Berners-Lee víziójából szinte semmi sem valósult meg. "Megtanítottuk a gépeket olvasni. Most jön a következő lépés, hogy tanítsuk meg őket érteni." Ez lett volna a cél, de még mindig csak az első lépésnél tatunk. Valószínűleg azért, mert a szemantika a legnehezebb része a nyelvi képességünknek. A gépek egyik fő nehézsége abban rejlik, hogy az emberek a nyelvet dinamikusan használják, és kontextusban értelmezik. Ennek megvalósítása a gépeknél rendkívül nehéz.
   Pléh Csaba elmondta, hogy az ember nagyon gyors mintázatfelismerő. A gépeknél ugyanez (akár képi, akár hang, szinte bármilyen területen) komoly technikai problémát jelent. Ezért is szűrik a gépeket (regisztrációknál, stb.) azzal, hogy torzított betűkkel rajzolnak ki egy szót. Embereknek nagyon könnyű felismerni a szavakat, míg gépeknek gyakorlatilag lehetetlen. A későbbiekben megjegyezte: nem csak a gépek keresnek kulcsszavakat, ez egy bizonyos keresési módszer, amit mi is igen gyakran alkalmazunk.
   Varasdi Károly úgy gondolja, hogy szépirodalmi szövegeket lefordítani egy gép számára még túl nehéz feladat, egyelőre szakmai szövegek megfelelő minőségű lefordítása is nagy előrelépés lenne. A szemantika nehézsége abban az egyszerű tényben is rejlik, hogy nem látható - mondta később.
   Prószéky Gábor elmondta, hogy hatékonyabb fordítást tenne lehetővé a programok szűkebb területre korlátozása. A későbbiekben elmondta: nem elég felsorolni a világban lévő dolgokat és a közöttük lévő kapcsolatok rendszerét. A megfelelő pillanatban fel is kell tudni dolgozni az összegyűjtött ismereteket. Egy szó értelmezése néha nagyobb szövegkörnyezetet igényel, néha azonban kimutat magából a szövegből.
   Kornai András kétféle alapvető módszert ismertetett a szövegértelmezésben: a szabály alapút és a statisztikai alapon működőt. Mint mondta, előbbinél a problémát az okozza, hogy még az általunk ismert szabályokat sem tudjuk a gép számára értelmezhetően átadni. Utóbbinak hatékonysága jóval nagyobb, ezt az idő igazolta. Problémának tartja a gépi értelmezés szempontjából, hogy nincs elegendő értelmezett adat.
   Összefoglalva a beszélgetés során a legfontosabb eredménynek tartom a következőket:
- sehol nem vagyunk Berners-Lee víziójának megvalósításától
- az emberek a nyelvet dinamikusan használják
- az emberek sokkal jobb mintafelismerők, mint a gépek
- a szemantika "nem látható", valamint nehezen szabályokba foglalható
- szűkebb területeken sokkal hatékonyabbá válhat az értelmezés
- a szó értelmezéséhez néha nem elég az azt tartalmazó teljes szövegkörnyezet sem

A beszélgetés megtalálható itt:  http://mindentudas.hu/kerekasztalok/item/2662-nyelvtechnológiai-kerekasztal.html

Nincsenek megjegyzések:

Megjegyzés küldése