Kategorie
guardrails narzędzia AI

Sójka – model typu „guardrails”

🚀 Dołącz do przełomowego projektu AI 🚀 Twoja cegiełka może zmienić świat!

Mamy dla Was coś wyjątkowego! Chcemy Was zaprosić do globalnej inicjatywy, która ma realny wpływ na bezpieczeństwo w sieci. To projekt, w którym każdy może pomóc budować AI chroniące nasze dzieci, młodzież i społeczeństwo przed toksycznymi treściami. Brzmi ciekawie? No to czytajcie dalej!

🔹 Innowacja nie zawsze oznacza nową architekturę AI. Czasem chodzi o świeże podejście do procesu – i właśnie takiego podejścia potrzebujemy! W hashtag#GRAI, razem z Katarzyna Z. Staroslawska, Agnieszka Kosiak, dr Dominika Kaczorowska-Spychalska, prof. UŁ, Aleksandra Tomaszewska, Marcin Walas (oraz większym zespołem oj pamięć już nie ta), badamy potencjał CITIZEN-GENERATED DATA – projektów, w których społeczeństwo aktywnie współtworzy dane.

Jednym z takich projektów będzie hashtag#ObywatelBielik (już za chwilę o nim usłyszycie!). Ale zanim do tego dojdziemy – mamy dla Was mega ważne wyzwanie!

💡 Czy kiedykolwiek zetknęliście się w sieci z hejtem, wulgaryzmami, nawoływaniem do przemocy? A może z niepokojącymi treściami w chatbotach, które powinny wspierać, a zamiast tego szkodzą? To ogromny problem, zwłaszcza dla młodych ludzi. Ich zdrowie psychiczne jest dziś na krawędzi – coraz częściej szukają wsparcia u AI, traktując ją jak wirtualnego przyjaciela. Ale co, jeśli zamiast pomocy dostaną toksyczne treści?

🛡️ Tworzymy model AI-strażnika („guardrails”), który pomoże wykrywać i eliminować zagrożenia. Może być wykorzystany do:

✅ moderacji komentarzy i wykrywania hejtu
✅ analizowania czatów pod kątem szkodliwych intencji
✅ filtrowania i poprawiania odpowiedzi AI, by unikać toksycznych treści
✅ ochrony użytkowników przed niebezpiecznymi treściami

W naszym zespole (Jerzy Surma, Jan Maria Kowalski, MBA, Igor Ciuciura, Krzysztof Wróbel Maciej Krystian Szymanski, Paweł Kiszczak) opracowaliśmy założenia dla modelu Sójka i stworzyliśmy system klasyfikacji treści.

Wynik? Udostępniliśmy ankietę i w kilka godzin mieliśmy 5831 odpowiedzi, a w kilka dni 20 000! 🚀

🔥 Ale to wciąż za mało! 🔥

W kursie hashtag#UmiejętnościJutraAI (pozdrawiamy Karol Stryja, Cezary Jaroni) organizowanym przez Google i SGH Warsaw School of Economics uczestniczyło 20 000 osób, większość zrobiła test z 50 pytaniami. FANTASTYCZNIE!. A co, gdyby wszyscy zrobili dodatkową „pracę dyplomową” – ocenili 10-20 treści w naszej ankiecie? To już 200 000 – 400 000 odpowiedzi! A jakby 50? MILION! 💥

To byłby game-changer – globalny dataset, który posłużyłby naukowcom do tworzenia lepszych, bardziej bezpiecznych modeli AI.

🤔 Challenge accepted? 💪 Link do strony projektu Sójka – model typu „guardrails”

Dołączcie do nas i pomóżcie stworzyć AI, które naprawdę chroni ludzi!

Kategorie
narzędzia AI

CHAT ARENA PL – pomóż rozwijać kompetencje AI w Polsce!

Na początku czerwca udostępniliśmy narzędzie CHAT ARENA PL. Jest to „pole bitwy” dużych modeli językowych, na którym możemy porównywać ich umiejętności w odpowiadaniu na zadane przez Was pytania/prompty.

Do momentu publikacji tego posta, 332 użytkowników naszej CHAT Areny rozegrało 5270 bitew. Liczymy jednak na znacznie więcej! Każdy pomysł na weryfikację jakości modeli się liczy. Dołącz do nas i pomóż w testach LLM-ów. Nie musisz być specjalistą od AI. Wystarczą dobre chęci, ciekawe prompty i rzetelna ocena wyników!

CHAT ARENA PL – Jak to działa?

  1. Wpisywanie promptów: Użytkownicy zaczynają od wpisania promptu, czyli pytania lub zadania dla modelu LLM.
  2. Generowanie odpowiedzi: System tworzy odpowiedzi z dwóch modeli AI na podstawie podanego promptu.
  3. Ocena odpowiedzi: Użytkownicy oceniają, która odpowiedź jest lepsza. Po dokonaniu oceny odpowiedzi przez użytkownika system ujawnia użyte modele LLM.
  4. Zapis promptów: Wszystkie prompty są zapisywane do późniejszej analizy i poprawy przyszłych wersji modeli LLM.

Na start dostępnych jest 7 modeli do testowania, w tym Llama3 Meta, Mixtral Mistral AI, Bielik SpeakLeash.org oraz GPT-3.5 OpenAI.

Każdy z modeli, który bierze udział w konfrontacji, jest pozycjonowany w naszym rankingu ELO. Pozwoli to w miarodajny sposób zestawić modele względem siebie dla zadań w języku polskim. Ocena jest wystawiana przez użytkowników, a nie syntetyczne/automatyczne benchmarki, które nie zawsze muszą odzwierciedlać możliwości danych modeli w realnych zastosowaniach.

CHAT ARENA PL – DOSTĘPNE FUNKCJE:

  • Zakładka Bitwa! – czyli właściwa arena modeli LLM. Ty tu rządzisz! Podajesz prompt, modele LLM generują swoje odpowiedzi, ty oceniasz która odpowiedź jest lepsza. Dla zwiększenia obiektywności przed wydaniem oceny nie wiesz który model wygenerował którą odpowiedź.
  • Zakładka Zadania – przykładowe prompty dla inspiracji, jeżeli nie wiesz od czego rozpocząć.
  • Zakładka Tablica liderów – ranking ELO (Speakleash/Bielik-7B-Instruct-v0.1, GPT-3.5-Turbo, Mixtral-8x7b-32768, Llama3-70b-8192, Llama3-8b-8192, Gemma-7b-it).
  • Zakładka Bielik vs świat możliwość porównania jakości generowanych tekstów przez nasz model Bielik.AI (Bielik-2 11B) vs modele z całego świata
SPEAKLEASH CHAT ARENA PL
SPEAKLEASH CHAT ARENA PL

ROZWÓJ KOMPETENCJI AI W POLSCE

Wszystkie wprowadzone prompty są zapisywane w celach analitycznych i poprawy jakości przyszłych modeli LLM. Nie zbieramy żadnych danych osobowych do działań marketingowych czy też promocyjnych. Jedyne dane osobowe które gromadzimy, zbierane są w celu zapewnienia bezpieczeństwa aplikacji, danych i zapobiegania nadużyciom.

Przy korzystaniu z CHAT ARENY prosimy o kulturę, profesjonalne prompty oraz ich rzetelne oceny. Przyczyni się to do rozwoju i doskonalenia polskich modeli językowych.

Zacznij swoją bitwę AI już teraz!