Kategorie
konferencja Modele AI narzędzia AI

Premiera dwóch nowych modeli Bielik z polskim tokenizerem na konferencji KUKDM 2026

Zakopane, 14 kwietnia 2026 — Podczas 18. Konferencji Użytkowników Komputerów Dużej Mocy (KUKDM 2026) w Zakopanem zespół Bielik AI zaprezentował dwa nowe modele językowe: Bielik-PL-11B-v3.0-Instruct oraz Bielik-PL-Minitron-7B-v3.0-Instruct. To pierwsze warianty rodziny Bielik wyposażone w dedykowany, zoptymalizowany pod kątem języka polskiego tokenizer.

Prezentacja na KUKDM 2026

Premiera odbyła się 14 kwietnia o godz. 10:35 w ramach prezentacji „Optymalizacja architektury w modelach Bielik”, którą wygłosili Krzysztof Ociepa i Krzysztof Wróbel z zespołu Bielik AI. Konferencja KUKDM, organizowana przez Akademickie Centrum Komputerowe Cyfronet AGH, odbywa się w dniach 13–15 kwietnia 2026 w Hotelu Bachleda Kasprowy w Zakopanem i gromadzi środowisko naukowe oraz technologiczne związane z obliczeniami dużej mocy w Polsce.

Co nowego w modelach Bielik PL?

Kluczową innowacją zaprezentowanych modeli jest przejście z uniwersalnego tokenizera Mistral na dedykowany słownik zoptymalizowany dla języka polskiego. Dotychczasowe modele Bielik korzystały z tokenizera zaprojektowanego dla wielu języków, co prowadziło do wyższych współczynników fragmentacji tekstu polskiego, zwiększonych kosztów inferencji oraz ograniczonego efektywnego okna kontekstowego.

Nowe modele wykorzystują inicjalizację embeddingów opartą na metodzie FOCUS, wieloetapowy program pretreningu oraz zaawansowany pipeline post-treningowy obejmujący:

  • Supervised Fine-Tuning (SFT) — dostrajanie nadzorowane
  • Direct Preference Optimization (DPO) — optymalizacja preferencji
  • Group Relative Policy Optimization (GRPO) z weryfikowalnymi nagrodami — uczenie ze wzmocnieniem

Wyniki benchmarków

Według opublikowanej pracy naukowej, model Bielik-11B-v3.0-Instruct osiąga wynik 65,93 w średniej 5-shot na Open LLM Leaderboard, plasując się wśród czołowych modeli i wyprzedzając niektóre znacznie większe rozwiązania, takie jak Meta-Llama-3.1-70B-Instruct.

Warianty z polskim tokenizerem uzyskują wyniki 64,11 (Bielik-PL-11B) oraz 61,66 (Bielik-PL-Minitron-7B), co potwierdza, że optymalizacja tokenizera nie odbywa się kosztem jakości modelu. W testach specjalistycznych dla języka polskiego, w tym w Polish Medical Benchmark, model 11B osiągnął znaczącą poprawę wyników względem wersji bazowej.

Kompresja bez utraty jakości

Model Bielik-PL-Minitron-7B powstał w wyniku kompresji wariantu 11B z wykorzystaniem technik structured pruning i knowledge distillation, opracowanych we współpracy z inżynierami NVIDIA. Dzięki temu udało się osiągnąć redukcję rozmiaru modelu o 33% oraz do 50% szybszą inferencję, zachowując przy tym ok. 90% jakości pełnego modelu. Metoda ta została po raz pierwszy zaprezentowana podczas NVIDIA GTC w marcu 2026.

Publikacja naukowa

Szczegóły techniczne nowych modeli zostały opisane w publikacji naukowej Advancing Polish Language Modeling through Tokenizer Optimization in the Bielik v3 7B and 11B Series, opublikowanej 12 kwietnia 2026 na platformie arXiv (ID: 2604.10799). Autorami pracy są Krzysztof Ociepa, Łukasz Flis, Remigiusz Kinas, Krzysztof Wróbel, Adrian Gwoździej.


Linki:

Kategorie
guardrails narzędzia AI

Sójka – model typu „guardrails”

🚀 Dołącz do przełomowego projektu AI 🚀 Twoja cegiełka może zmienić świat!

Mamy dla Was coś wyjątkowego! Chcemy Was zaprosić do globalnej inicjatywy, która ma realny wpływ na bezpieczeństwo w sieci. To projekt, w którym każdy może pomóc budować AI chroniące nasze dzieci, młodzież i społeczeństwo przed toksycznymi treściami. Brzmi ciekawie? No to czytajcie dalej!

🔹 Innowacja nie zawsze oznacza nową architekturę AI. Czasem chodzi o świeże podejście do procesu – i właśnie takiego podejścia potrzebujemy! W hashtag#GRAI, razem z Katarzyna Z. Staroslawska, Agnieszka Kosiak, dr Dominika Kaczorowska-Spychalska, prof. UŁ, Aleksandra Tomaszewska, Marcin Walas (oraz większym zespołem oj pamięć już nie ta), badamy potencjał CITIZEN-GENERATED DATA – projektów, w których społeczeństwo aktywnie współtworzy dane.

Jednym z takich projektów będzie hashtag#ObywatelBielik (już za chwilę o nim usłyszycie!). Ale zanim do tego dojdziemy – mamy dla Was mega ważne wyzwanie!

💡 Czy kiedykolwiek zetknęliście się w sieci z hejtem, wulgaryzmami, nawoływaniem do przemocy? A może z niepokojącymi treściami w chatbotach, które powinny wspierać, a zamiast tego szkodzą? To ogromny problem, zwłaszcza dla młodych ludzi. Ich zdrowie psychiczne jest dziś na krawędzi – coraz częściej szukają wsparcia u AI, traktując ją jak wirtualnego przyjaciela. Ale co, jeśli zamiast pomocy dostaną toksyczne treści?

🛡️ Tworzymy model AI-strażnika („guardrails”), który pomoże wykrywać i eliminować zagrożenia. Może być wykorzystany do:

✅ moderacji komentarzy i wykrywania hejtu
✅ analizowania czatów pod kątem szkodliwych intencji
✅ filtrowania i poprawiania odpowiedzi AI, by unikać toksycznych treści
✅ ochrony użytkowników przed niebezpiecznymi treściami

W naszym zespole (Jerzy Surma, Jan Maria Kowalski, MBA, Igor Ciuciura, Krzysztof Wróbel Maciej Krystian Szymanski, Paweł Kiszczak) opracowaliśmy założenia dla modelu Sójka i stworzyliśmy system klasyfikacji treści.

Wynik? Udostępniliśmy ankietę i w kilka godzin mieliśmy 5831 odpowiedzi, a w kilka dni 20 000! 🚀

🔥 Ale to wciąż za mało! 🔥

W kursie hashtag#UmiejętnościJutraAI (pozdrawiamy Karol Stryja, Cezary Jaroni) organizowanym przez Google i SGH Warsaw School of Economics uczestniczyło 20 000 osób, większość zrobiła test z 50 pytaniami. FANTASTYCZNIE!. A co, gdyby wszyscy zrobili dodatkową „pracę dyplomową” – ocenili 10-20 treści w naszej ankiecie? To już 200 000 – 400 000 odpowiedzi! A jakby 50? MILION! 💥

To byłby game-changer – globalny dataset, który posłużyłby naukowcom do tworzenia lepszych, bardziej bezpiecznych modeli AI.

🤔 Challenge accepted? 💪 Link do strony projektu Sójka – model typu „guardrails”

Dołączcie do nas i pomóżcie stworzyć AI, które naprawdę chroni ludzi!

Kategorie
narzędzia AI

CHAT ARENA PL – pomóż rozwijać kompetencje AI w Polsce!

Na początku czerwca udostępniliśmy narzędzie CHAT ARENA PL. Jest to „pole bitwy” dużych modeli językowych, na którym możemy porównywać ich umiejętności w odpowiadaniu na zadane przez Was pytania/prompty.

Do momentu publikacji tego posta, 332 użytkowników naszej CHAT Areny rozegrało 5270 bitew. Liczymy jednak na znacznie więcej! Każdy pomysł na weryfikację jakości modeli się liczy. Dołącz do nas i pomóż w testach LLM-ów. Nie musisz być specjalistą od AI. Wystarczą dobre chęci, ciekawe prompty i rzetelna ocena wyników!

CHAT ARENA PL – Jak to działa?

  1. Wpisywanie promptów: Użytkownicy zaczynają od wpisania promptu, czyli pytania lub zadania dla modelu LLM.
  2. Generowanie odpowiedzi: System tworzy odpowiedzi z dwóch modeli AI na podstawie podanego promptu.
  3. Ocena odpowiedzi: Użytkownicy oceniają, która odpowiedź jest lepsza. Po dokonaniu oceny odpowiedzi przez użytkownika system ujawnia użyte modele LLM.
  4. Zapis promptów: Wszystkie prompty są zapisywane do późniejszej analizy i poprawy przyszłych wersji modeli LLM.

Na start dostępnych jest 7 modeli do testowania, w tym Llama3 Meta, Mixtral Mistral AI, Bielik SpeakLeash.org oraz GPT-3.5 OpenAI.

Każdy z modeli, który bierze udział w konfrontacji, jest pozycjonowany w naszym rankingu ELO. Pozwoli to w miarodajny sposób zestawić modele względem siebie dla zadań w języku polskim. Ocena jest wystawiana przez użytkowników, a nie syntetyczne/automatyczne benchmarki, które nie zawsze muszą odzwierciedlać możliwości danych modeli w realnych zastosowaniach.

CHAT ARENA PL – DOSTĘPNE FUNKCJE:

  • Zakładka Bitwa! – czyli właściwa arena modeli LLM. Ty tu rządzisz! Podajesz prompt, modele LLM generują swoje odpowiedzi, ty oceniasz która odpowiedź jest lepsza. Dla zwiększenia obiektywności przed wydaniem oceny nie wiesz który model wygenerował którą odpowiedź.
  • Zakładka Zadania – przykładowe prompty dla inspiracji, jeżeli nie wiesz od czego rozpocząć.
  • Zakładka Tablica liderów – ranking ELO (Speakleash/Bielik-7B-Instruct-v0.1, GPT-3.5-Turbo, Mixtral-8x7b-32768, Llama3-70b-8192, Llama3-8b-8192, Gemma-7b-it).
  • Zakładka Bielik vs świat możliwość porównania jakości generowanych tekstów przez nasz model Bielik.AI (Bielik-2 11B) vs modele z całego świata
SPEAKLEASH CHAT ARENA PL
SPEAKLEASH CHAT ARENA PL

ROZWÓJ KOMPETENCJI AI W POLSCE

Wszystkie wprowadzone prompty są zapisywane w celach analitycznych i poprawy jakości przyszłych modeli LLM. Nie zbieramy żadnych danych osobowych do działań marketingowych czy też promocyjnych. Jedyne dane osobowe które gromadzimy, zbierane są w celu zapewnienia bezpieczeństwa aplikacji, danych i zapobiegania nadużyciom.

Przy korzystaniu z CHAT ARENY prosimy o kulturę, profesjonalne prompty oraz ich rzetelne oceny. Przyczyni się to do rozwoju i doskonalenia polskich modeli językowych.

Zacznij swoją bitwę AI już teraz!