Kategorie
AI dataset

Obywatel Bielik

🚀 Chcemy razem z Wami stworzyć największy projekt citizen science dla AI w Europie! 🇪🇺 m.in. z SpeakLeash | Spichlerz (ale nie tylko)!

Bo przełomy w AI to nie tylko nowe architektury i tona GPU. To też nowe podejście do zarządzania danymi, trenowania modeli i tworzenia jakościowych zbiorów. Innowacja to także ludzie – ich wiedza, pasja i zaangażowanie.

📸 Zamiast generować kolejne selfi w stylu bohaterów filmów Studia Ghibli  🐱🚀… zrobisz zdjęcie swojej okolicy, lokalnej potrawy 🍲, zabytku, zwyczaju — i dobrze je opiszesz. To właśnie takich danych potrzebuje polska AI, by rozumieć nasz świat.

Pokażmy Polsce i światu, jak wygląda nasza kultura widziana naszymi oczami! Ale od początku: zerknijcie na naszą prezentację (poniżej) i zobaczcie, jak obecne modele image-text-to-text radzą sobie z opisem polskich potraw.

Spoiler: słabo 😅 A przecież te modele mogą wspierać polski e-commerce, pomagać osobom z niepełnosprawnościami 👁️‍🗨️ i zwiększać dostępność cyfrową.

🧠 Mamy już modele tekstowe – BIELIK.AI i PLLuM. Dwa duże LLM-y zbudowane w Polsce! Teraz czas na wizję – dosłownie. Model, który rozumie obrazy. I tu wchodzi cały na biało… hashtag#ObywatelBielik 🤍🦅

Będzie to aplikacja webowa i mobilna, w której każdy będzie mógł wrzucać i opisywać zdjęcia. Nie potrzebujemy dzieł sztuki ani selfie – szukamy zdjęć lokalnych potraw, przyrody, tradycji, zabytków.

👉 Chcemy stworzyć:

1️⃣ Największy otwarty zbiór danych obrazów
2️⃣ W całości zbudowany przez obywateli – wspierany przez szkoły, instytucje kultury, lokalne społeczności 🇵🇱
3️⃣ 1 milion zdjęć i opisów w jeden kwartał! 📸

I nie będziemy sami – dołączają do nas duże instytucje 💪 (o szczegółach już niedługo – trwają podpisy 👀).

Kategorie
guardrails narzędzia AI

Sójka – model typu „guardrails”

🚀 Dołącz do przełomowego projektu AI 🚀 Twoja cegiełka może zmienić świat!

Mamy dla Was coś wyjątkowego! Chcemy Was zaprosić do globalnej inicjatywy, która ma realny wpływ na bezpieczeństwo w sieci. To projekt, w którym każdy może pomóc budować AI chroniące nasze dzieci, młodzież i społeczeństwo przed toksycznymi treściami. Brzmi ciekawie? No to czytajcie dalej!

🔹 Innowacja nie zawsze oznacza nową architekturę AI. Czasem chodzi o świeże podejście do procesu – i właśnie takiego podejścia potrzebujemy! W hashtag#GRAI, razem z Katarzyna Z. Staroslawska, Agnieszka Kosiak, dr Dominika Kaczorowska-Spychalska, prof. UŁ, Aleksandra Tomaszewska, Marcin Walas (oraz większym zespołem oj pamięć już nie ta), badamy potencjał CITIZEN-GENERATED DATA – projektów, w których społeczeństwo aktywnie współtworzy dane.

Jednym z takich projektów będzie hashtag#ObywatelBielik (już za chwilę o nim usłyszycie!). Ale zanim do tego dojdziemy – mamy dla Was mega ważne wyzwanie!

💡 Czy kiedykolwiek zetknęliście się w sieci z hejtem, wulgaryzmami, nawoływaniem do przemocy? A może z niepokojącymi treściami w chatbotach, które powinny wspierać, a zamiast tego szkodzą? To ogromny problem, zwłaszcza dla młodych ludzi. Ich zdrowie psychiczne jest dziś na krawędzi – coraz częściej szukają wsparcia u AI, traktując ją jak wirtualnego przyjaciela. Ale co, jeśli zamiast pomocy dostaną toksyczne treści?

🛡️ Tworzymy model AI-strażnika („guardrails”), który pomoże wykrywać i eliminować zagrożenia. Może być wykorzystany do:

✅ moderacji komentarzy i wykrywania hejtu
✅ analizowania czatów pod kątem szkodliwych intencji
✅ filtrowania i poprawiania odpowiedzi AI, by unikać toksycznych treści
✅ ochrony użytkowników przed niebezpiecznymi treściami

W naszym zespole (Jerzy Surma, Jan Maria Kowalski, MBA, Igor Ciuciura, Krzysztof Wróbel Maciej Krystian Szymanski, Paweł Kiszczak) opracowaliśmy założenia dla modelu Sójka i stworzyliśmy system klasyfikacji treści.

Wynik? Udostępniliśmy ankietę i w kilka godzin mieliśmy 5831 odpowiedzi, a w kilka dni 20 000! 🚀

🔥 Ale to wciąż za mało! 🔥

W kursie hashtag#UmiejętnościJutraAI (pozdrawiamy Karol Stryja, Cezary Jaroni) organizowanym przez Google i SGH Warsaw School of Economics uczestniczyło 20 000 osób, większość zrobiła test z 50 pytaniami. FANTASTYCZNIE!. A co, gdyby wszyscy zrobili dodatkową „pracę dyplomową” – ocenili 10-20 treści w naszej ankiecie? To już 200 000 – 400 000 odpowiedzi! A jakby 50? MILION! 💥

To byłby game-changer – globalny dataset, który posłużyłby naukowcom do tworzenia lepszych, bardziej bezpiecznych modeli AI.

🤔 Challenge accepted? 💪 Link do strony projektu Sójka – model typu „guardrails”

Dołączcie do nas i pomóżcie stworzyć AI, które naprawdę chroni ludzi!

Kategorie
narzędzia AI

CHAT ARENA PL – pomóż rozwijać kompetencje AI w Polsce!

Na początku czerwca udostępniliśmy narzędzie CHAT ARENA PL. Jest to „pole bitwy” dużych modeli językowych, na którym możemy porównywać ich umiejętności w odpowiadaniu na zadane przez Was pytania/prompty.

Do momentu publikacji tego posta, 332 użytkowników naszej CHAT Areny rozegrało 5270 bitew. Liczymy jednak na znacznie więcej! Każdy pomysł na weryfikację jakości modeli się liczy. Dołącz do nas i pomóż w testach LLM-ów. Nie musisz być specjalistą od AI. Wystarczą dobre chęci, ciekawe prompty i rzetelna ocena wyników!

CHAT ARENA PL – Jak to działa?

  1. Wpisywanie promptów: Użytkownicy zaczynają od wpisania promptu, czyli pytania lub zadania dla modelu LLM.
  2. Generowanie odpowiedzi: System tworzy odpowiedzi z dwóch modeli AI na podstawie podanego promptu.
  3. Ocena odpowiedzi: Użytkownicy oceniają, która odpowiedź jest lepsza. Po dokonaniu oceny odpowiedzi przez użytkownika system ujawnia użyte modele LLM.
  4. Zapis promptów: Wszystkie prompty są zapisywane do późniejszej analizy i poprawy przyszłych wersji modeli LLM.

Na start dostępnych jest 7 modeli do testowania, w tym Llama3 Meta, Mixtral Mistral AI, Bielik SpeakLeash.org oraz GPT-3.5 OpenAI.

Każdy z modeli, który bierze udział w konfrontacji, jest pozycjonowany w naszym rankingu ELO. Pozwoli to w miarodajny sposób zestawić modele względem siebie dla zadań w języku polskim. Ocena jest wystawiana przez użytkowników, a nie syntetyczne/automatyczne benchmarki, które nie zawsze muszą odzwierciedlać możliwości danych modeli w realnych zastosowaniach.

CHAT ARENA PL – DOSTĘPNE FUNKCJE:

  • Zakładka Bitwa! – czyli właściwa arena modeli LLM. Ty tu rządzisz! Podajesz prompt, modele LLM generują swoje odpowiedzi, ty oceniasz która odpowiedź jest lepsza. Dla zwiększenia obiektywności przed wydaniem oceny nie wiesz który model wygenerował którą odpowiedź.
  • Zakładka Zadania – przykładowe prompty dla inspiracji, jeżeli nie wiesz od czego rozpocząć.
  • Zakładka Tablica liderów – ranking ELO (Speakleash/Bielik-7B-Instruct-v0.1, GPT-3.5-Turbo, Mixtral-8x7b-32768, Llama3-70b-8192, Llama3-8b-8192, Gemma-7b-it).
  • Zakładka Bielik vs świat możliwość porównania jakości generowanych tekstów przez nasz model Bielik.AI (Bielik-2 11B) vs modele z całego świata
SPEAKLEASH CHAT ARENA PL
SPEAKLEASH CHAT ARENA PL

ROZWÓJ KOMPETENCJI AI W POLSCE

Wszystkie wprowadzone prompty są zapisywane w celach analitycznych i poprawy jakości przyszłych modeli LLM. Nie zbieramy żadnych danych osobowych do działań marketingowych czy też promocyjnych. Jedyne dane osobowe które gromadzimy, zbierane są w celu zapewnienia bezpieczeństwa aplikacji, danych i zapobiegania nadużyciom.

Przy korzystaniu z CHAT ARENY prosimy o kulturę, profesjonalne prompty oraz ich rzetelne oceny. Przyczyni się to do rozwoju i doskonalenia polskich modeli językowych.

Zacznij swoją bitwę AI już teraz!

Kategorie
AI dataset dataset tekstów w języku polskim

Spichlerzowy dataset tekstów w języku polskim powiększył się o ponad 470 GB w 3.5 miesiąca!

Od ostatniej aktualizacji, którą chwaliliśmy się 6 września, dataset tekstów w języku polskim nad którym pracuje Spichlerz znacznie się rozrósł. Obecnie baza tekstów osiągnęła imponujący rozmiar 833.36 GB, co oznacza wzrost o ponad 470 GB w ciągu zaledwie 3.5 miesiąca.

Najważniejsze zmiany obejmują:

  1. Wzrost bazy tekstów: Rozmiar Spichlerzowego datasetu wzrósł z 370 GB na imponujące 833.36 GB. To znaczące zwiększenie ilości zgromadzonych danych świadczy o intensyfikacji działań projektu w obszarze zbierania i analizy polskich tekstów.
  2. Przebicie wielkości datasetu The Pile: Speakleash przebił pod względem rozmiaru datasetu znany projekt The Pile, potwierdzając pozycję projektu jako jednego z największych źródeł danych tekstowych na świecie i z pewnością największego dla języka polskiego.
  3. Nowe dane z forów internetowych: Do naszej bazy dodanych zostało ponad 100 GB treści pochodzących głównie z różnych forów internetowych.
  4. Dane z datasetu CulturaX: wprowadziliśmy nowe dane z datasetu CulturaX, które zostały poddane szczegółowej analizie metrykami Speakleasha. Dodatkowo, dane zostały precyzyjnie skategoryzowane, co zwiększa ich użyteczność i wartość analityczną.

Zebranie 370GB w tak krótkim czasie świadczy o niesamowitym zaangażowaniu i wysokim tempie pracy osób wspierających rozwój projektu. Nie zamierzamy się zatrzymywać!

Jeżeli chcesz pomóc w osiągnięciu naszego podstawowego celu czyli zebrania 1TB polskich danych tekstowych to zapraszamy do współpracy! 

Kategorie
AI dataset

Ponad 370GB danych w Spichlerzu!

Od czasu ostatniej aktualizacji Spichlerzowego datasetu, zasoby tekstowe powiększyły się o kolejne 25 GB i tym samym przekroczyliśmy granicę 370 GB zgromadzonych danych.

Najnowsze informacje pochodzą z różnych źródeł internetowych, obejmujących szeroki zakres kategorii, od turystyki po informacje dotyczące gier komputerowych i usług internetowych. Dodatkowo, systematycznie uzupełniamy naszą bazę o treści pochodzące z różnych forów internetowych.

Trwają także końcowe prace nad nową wersją projektowego dashboardu prezentującego dane na temat datasetu. Nowa wersja będzie znacznie ulepszona pod kątem możliwości filtracji danych, wyglądu i wydajności. Stay tuned!