Alig 200 óra alatt tanítottak meg magyarul egy mesterséges rendszert

A modell ráadásul relatíve olcsó, kevesebb mint 1000 euróba került.
Fotó: Gerd Altmann/Pixabay (illusztráció) - szmo.hu
2021. augusztus 26.


Link másolása

Nagyjából 15 millió ember beszéli a világ közel 7,7 milliárd lakosából a magyar nyelvet, amivel jelenleg a 78. helyen állunk a világ nyelvei között. Azt nézve nem is olyan rossz hír ez, hogy bár biztos számot nehéz mondani, még most is jóval 6 ezer felett van a beszélt nyelvek száma a Földön. Az viszont természetes vágy ilyen méretű beszédközösségnél, hogy szívesen használnánk anyanyelvünket az informatikai világban is. Ahhoz azonban sajnos a 15 millió beszélő kevés, hogy a nagy cégeknek megérje kifejleszteni a magyarul beszélő szoftvereket.

Most azonban a Pécsi Tudományegyetem (PTE) Alkalmazott Adattudományi és Mesterséges Intelligencia-csapata a Microsoft Azure mesterséges intelligencia és az ONNX Runtime megoldások alkalmazásával megépítette és betanította saját BERT-large modelljét magyar nyelven, méghozzá kevesebb, mint 200 munkaóra és 1000 euró befektetésével - adják hírül a Microsoft honlapján közzétett közleményükben.

A nagy mennyiségű magyar nyelvű adat kezelését megkönnyítendő a PTE természetes nyelvfeldolgozási (NLP) módszerek kutatásába fogott.

A megoldást egy magyar nyelvű BERT-large modell (HILBERT) létrehozása jelentette, ami egy nyílt forráskódú gépi tanulás keretrendszer. A modell célja, hogy segítse a számítógépet a többféleképpen értelmezhető szövegrészek megértésében oly módon, hogy a szövegkörnyezetből kontextust épít.

„A Microsoft piacvezető a nyelvi modellek betanításának területén. Természetes, hogy a legjobb technológiát akartuk használni” - mondta el Hajdu Róbert, az Alkalmazott Adattudományi és Mesterséges Intelligencia Központ volt tervezőmérnöke.

Ahelyett, hogy gyenge minőségű adatokat gyűjtöttek volna az internetről, a Nyelvtudományi Kutatóközpont szakemberei segítségével készítették elő az alapokat. Az Azure pedig mindent megkönnyített és felgyorsított.

A modell működéséhez egyébként legalább 3,5 milliárd szót tartalmazó folyószöveg szükséges, ezt az adatbázist a Nyelvtudományi Kutatóközpont, a projekt másik résztvevője többek között a Magyar Nemzeti Szótárból, online médiatárakból és az opensubtitles.org ingyenesen hozzáférhető filmfelirat-adatbázis magyar nyelvű anyagai közül gyűjtötte a csapat.

200 munkaóra alatt végeztünk. Ez a világon az eddigi legolcsóbb BERT-large. Kevesebb, mint 1000 euróba került

- mesélte Dr. Feldmann Ádám, a PTE Adattudományi és AI csoport vezetője. „Az ONNX Runtime nélkül a HILBERT-large modellünk betanítása 1500 órát, vagyis megközelítőleg két hónapot vett volna igénybe” – tette hozzá.

A Pécsi Tudományegyetem BERT-large modellje jelentős lehetőségeket rejt magában az írott és beszélt szöveg feldolgozása, az intelligens keresés, az entitásérzékelés, a dokumentációs klasszifikáció terén. A HILBERT közreműködhet újabb, jobb teljesítményű chatbotok létrehozásában is.

A projekt teljes, hosszabb ismertetőjét EZEN A LINKEN lehet elolvasni.


Link másolása
KÖVESS MINKET:

Címlapról ajánljuk



Link másolása


Link másolása
KÖVESS MINKET:

Ajánljuk

Link másolása


Link másolása
KÖVESS MINKET:

Ajánljuk


Link másolása


Link másolása
KÖVESS MINKET:

Ajánljuk


Link másolása


Link másolása
KÖVESS MINKET:

Ajánljuk