Ministerstwo Cyfryzacji zaprezentowało PLLuM (Polish Large Language Model) – rodzinę modeli sztucznej inteligencji, która pozwala przetwarzać i generować teksty w języku polskim – i zapowiedziało przyznanie konsorcjum dotacji w wysokości 19 mln zł na dalszy rozwój projektu. Lider konsorcjum HIVE – Ośrodek Badań nad Bezpieczeństwem SI w NASK – będzie koordynować prace wdrożeniowe PLLuM w usługach administracji publicznej.
„PLLuM to dowód na to, że możemy rozwijać nowoczesne technologie na własnych warunkach, w naszym języku, z korzyścią dla obywatelek i obywateli. Tworzymy fundament pod inteligentne usługi publiczne i innowacje, które będą realnym wsparciem zarówno dla administracji, jak i biznesu” – powiedział wicepremier i minister cyfryzacji Krzysztof Gawkowski, cytowany w komunikacie.
PLLuM to rodzina modeli sztucznej inteligencji, która pozwala przetwarzać i generować teksty w języku polskim. Modele stworzone przez polskich ekspertów i ekspertki z dziedziny IT i lingwistyki wesprą rozwój kompetencji cyfrowych oraz innowacje w administracji publicznej i biznesie. Od dziś model dostępny jest dla każdego.
„Rozwój PLLuM to inwestycja w cyfrowe państwo. Do tej pory przeznaczyliśmy na ten projekt 14,5 mln zł, a teraz idziemy krok dalej – kolejne 19 mln zł pozwoli na wdrożenie modelu w administracji publicznej i rozszerzenie współpracy o nowych partnerów, takich jak COI i Cyfronet. Dzięki temu PLLuM stanie się kluczowym elementem cyfryzacji usług publicznych i rozwoju krajowego ekosystemu AI” – wskazał wiceminister cyfryzacji Dariusz Standerski.
Projekt realizowany jest na zlecenie Ministerstwa Cyfryzacji, które jest właścicielem wyników i kontroluje rozwój PLLuM. Projekt realizowany był do tej pory przez konsorcjum sześciu podmiotów:
* Politechnika Wrocławska (lider projektu)
* Instytut Podstaw Informatyki PAN
* Instytut Slawistyki PAN
* Naukowa i Akademicka Sieć Komputerowa (NASK-PIB)
* Ośrodek Przetwarzania Informacji (OPI-PIB)
* Uniwersytet Łódzki.
„PLLuM wyróżnia się na tle innych modeli językowych. Jest dostosowany do specyfiki języka polskiego oraz terminologii administracji publicznej. W procesie jego tworzenia stosuje kompleksowe procedury gromadzenia danych i oceny ich jakości. PLLuM przede wszystkim korzysta z danych organicznych – opracowywanych ręcznie, a nie przy użyciu innych modeli językowych. Trenowany na polskich zasobach, bardzo dobrze radzi sobie z wyzwaniami fleksji i złożonej składni generując precyzyjne treści” – czytamy w komunikacie.
Polski model językowy jest elastyczny i skalowalny – wykorzystuje od 8 do 70 mld parametrów. Pozwala na precyzyjne generowanie treści w języku polskim. Bazuje na etycznym pozyskiwaniu danych – wersje do użytku komercyjnego wykorzystują zasoby tekstowe od właścicieli, którzy udzielili licencji konsorcjum, a także zasoby, które, zgodnie z ustawą o prawie autorskim i prawach pokrewnych oraz przepisami UE, mogą być wykorzystane do budowy w pełni otwartego modelu.
„Wspólnie z modelem Bielik [modele te] mogą promować sztuczną inteligencję tworzoną w Polsce, wspierając się wzajemnie w lepszym procesie trenowania i dalszym pozyskiwaniu oraz otwieraniu danych, potrzebnych, by #AIMadeInPoland było coraz lepsze – dla administracji publicznej, biznesu i społeczeństwa” – zakończono.
Źródło: ISBnews