Kategorie
AI dataset

Badanie ankietowe SpeakLeash

Pragniemy lepiej zrozumieć, jak duże modele językowe są wykorzystywane w praktyce przez profesjonalistów z różnych sektorów biznesu i nauki.

🦸 Dlaczego Twoja opinia jest dla nas ważna?

Liczymy, iż dowiemy się, w jaki sposób LLMy zmieniają krajobraz biznesowy, w których obszarach znajdują największe zastosowanie, oraz jakie są oczekiwania wobec przyszłych innowacji.

🎈 Spodziewane korzyści z badania

Twoje odpowiedzi pomogą nam zidentyfikować kluczowe tendencje, potrzeby oraz możliwości związane z zastosowaniem LLM.

Ostatecznym celem jest lepsze zrozumienie, jak możemy wspierać biznes i naukę w wykorzystywaniu tych technologii dla maksymalizacji wartości i innowacyjności.

📊 Jak możesz pomóc?

Wypełniając naszą ankietę! https://lnkd.in/d_s-c3ja

Ankieta jest krótka i nie powinna zająć Wam więcej niż 10 minut.

Źródło własne: dall – e (prod-e7cea237f10e99e47dc9266dfe358e2074199b15)

Kategorie
AI dataset

Bielik wylądował!

Niektórzy mówili, że to niemożliwe albo z ironią  życzyli nam powodzenia. Wiele osób jednak kibicowało temu przedsięwzięciu i po nieco ponad roku pomysłodawca pierwszego polskiego i otwartego projektu open-source/open-science może patrzeć z dumą na efekty i dziękować wszystkim za początkową dawkę motywacji. Bez budżetu, rozdmuchanego marketingu czy sponsorów, za to z wielkimi ambicjami, poświęceniem wolnego czasu, często też kosztem snu czy innych prywatnych aktywności. Polski zespół entuzjastów z projektu SpeakLeash aka Spichlerz właśnie opublikował swój pierwszy duży model językowy o nazwie Bielik-7B-v0.1. Czy sprawi, że odlecimy z zachwytu czy jednak czeka ich lot Ikara?

Zdjęcie: część zespołu SpeakLeash z pracownikami AGH Cyfronet przy superkomputerze Helios (źródło własne SpeakLeash)

SpeakLeash to inicjatywa open-science, która zaczęła działać ponad półtora roku temu, stawiając sobie za cel stworzenie największego polskiego zbioru danych tekstowych oraz opracowanie otwartego dużego modelu językowego (ang. large language model, w skrócie LLM). W skład zespołu projektowego wchodzą przede wszystkim pracownicy polskich przedsiębiorstw, badacze z ośrodków naukowych oraz studenci kierunków związanych z obszarami sztucznej inteligencji. Zaangażowanie członków projektu, którzy poświęcają swój prywatny czas i umiejętności pro bono służy nie tylko realizacji wspomnianego zadania, lecz także tworzeniu społeczności oraz – przede wszystkim – rozwojowi ekosystemu służącego budowie zaawansowanych modeli językowych (a wkrótce może również multimodalnych, czyli analizujących więcej niż jedno źródło informacji, np.: tekst i zdjęcia).

Rok 2024 dla SpeakLeash zaczął się spektakularnie, bo w styczniu ogłosili zebranie 1 TB danych, a więc udało im się już osiągnąć główny cel projektu. Co ważne, zebrane dane są opisane i przygotowane pod kątem AI ACT – nowej dyrektywy unijnej regulującej sprawy związane z uczeniem maszynowym, sztuczną inteligencją oraz użyciem danych do treningu modeli. Tym samym SpeakLeash stał się największym, najlepiej opisanym i udokumentowanym zbiorem danych w języku polskim.

Niemalże równocześnie pojawił się model APT3-1B-Base oraz APT3-1B-Instruct, który został w większości wytrenowany na danych pochodzących z zasobów Spichlerza. Model wytrenowany został na konsumenckiej karcie graficznej, przez co trening trwał prawie półtora miesiąca (dokładnie były to 44 dni ciągłego przetwarzania 285 GB danych treningowych). Pomimo relatywnie niewielkiego rozmiaru modelu (1B, czyli 1 miliard parametrów), potrafi on odpowiadać w języku polskim, ale członkowie projektu mieli większe ambicje.

SpeakLeash był znany już wcześniej w środowisku, ponieważ współpracował z ośrodkami naukowymi zajmującymi się przetwarzaniem języka naturalnego, takimi jak Clarin, PAN IPI czy też NASK PIB. Jednak zebranie tak dużej liczby danych oraz wytrenowanie modelu APT3-1B pokazało determinację tej grupy  badaczy i entuzjastów. Jednocześnie wysłali jasny sygnał, że mają chęć na więcej i nie jest to ich ostatnie słowo w kontekście dużych modeli językowych.

Kamieniem milowym okazało się rozpoczęcie ścisłej współpracy SpeakLeash – Akademickie Centrum Komputerowe Cyfronet AGH. Cyfronet jest polskim centrum superkomputerowym i ostatnim brakującym elementem w układance. Jako pierwszy komercyjny odbiorca na świecie najnowszych akceleratorów graficznych (ang. GPU) GH200 produkcji NVidii są w stanie zaproponować niespotykaną na polskiej ziemi moc obliczeniową szacowaną na 35 petaflopów. Superkomputery Athena oraz Helios, notowane na liście TOP500, od ponad miesiąca wspomagają Spichlerz w tworzeniu, eksperymentowaniu oraz testowaniu LLM-ów.

Linki:

Przestrzeń SpeakLeash na HF (m.in. wersje skwantyzowane): https://huggingface.co/speakleash

Autorstwa Karl Adami – Praca własna, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=63407583

Kategorie
AI dataset

PODSUMOWANIE ROKU 2023

Dziś przychodzimy do Was z podsumowaniem roku działalności projektu Speakleash. 🚀

Kiedy ruszyliśmy z projektem nasz celu wydawał się bardzo odległy, niektórzy twierdzili, że wręcz niemożliwy. 🎯 Przez ten rok nie tylko sformalizowaliśmy naszą organizację jako fundację, ale przede wszystkim udało nam się zebrać aż 837,45 GBdanych, znaczy to, że jesteśmy już bardzo blisko docelowego 1TB! 💪 Warto zaznaczyć, że tworzymy w tym momencie największy na świecie (lub jeden z największych) zestawów danych tekstowych w jednym języku rozwijany w modelu open-science. Dodatkowo stawiamy nie tylko na ilość danych, ale też na ich jakość. Wszystkie zebrane przez nas dane są szczegółowo kategoryzowane i oceniane pod względem jakości, postępy naszych prac śledzić możecie na bieżąco na naszym dashboardzie. 🌐

Działalność Spichlerza to nie tylko zbieranie danych, ale też dzielenie się wiedzą i inspirowanie. 💡 W tym roku mieliśmy przyjemność wziąć udział w wielu konferencjach m.in. Data Science Summit oraz Data Science Summit Machine Learning Edition, dwóch edycjach Pytech Summit, konferencji jubileuszowej CLARIN-PL “Dziesięć lat otwartej infrastruktury naukowej CLARIN w Polsce” oraz Deviniti JIRA DAY Night Talk. 📣 Byliśmy partnerami wydarzeń takich jak ML in PL czy Hack To The Rescue. Gościliśmy w podcaście Nieliniowy Michal Dulemba, warto zaznaczyć, że odcinek z naszym udziałem określony został przez Crossweb.pl najpopularniejszym odcinkiem podcastu minionego roku. 🎙

Ten rok był bardzo ważny dla rozwoju AI w Polsce i rozpoczęcia prac nad PLLuM (Polish Large Language Universal Model). Nad tą inicjatywą pracują kluczowe jednostki zajmujące się AI w Polsce. Jesteśmy bardzo ciekawi efektów!

Nic z tego nie byłoby możliwe gdyby nie ciężka praca naszego zespołu, mieszanki kompetencji i charakterów. Do Discorda Speakleash (https://discord.gg/NN99d3Uv) dołączyło już ponad 160 osób i stale pojawiają się kolejne. 👥 Sebastian KondrackiMaria Filipkowska, PhDKrzysztof (Chris) OciepaAdrian GwoździejPaweł KiszczakGrzegorz UrbanowiczSzymon BaczyńskiIgor CiuciuraPawel CyrtaIzabela BabisWaldemar BoszkoAndrzej CyborońJacek Chwiła to tylko mała część naszego zespołu, nie sposób wymienić tutaj wszystkich.

Dziękujemy wszystkim zaangażowanym za waszą pracę i nie możemy się doczekać co przyniesie rok 2024! 🎉

Kategorie
AI dataset dataset tekstów w języku polskim

Spichlerzowy dataset tekstów w języku polskim powiększył się o ponad 470 GB w 3.5 miesiąca!

Od ostatniej aktualizacji, którą chwaliliśmy się 6 września, dataset tekstów w języku polskim nad którym pracuje Spichlerz znacznie się rozrósł. Obecnie baza tekstów osiągnęła imponujący rozmiar 833.36 GB, co oznacza wzrost o ponad 470 GB w ciągu zaledwie 3.5 miesiąca.

Najważniejsze zmiany obejmują:

  1. Wzrost bazy tekstów: Rozmiar Spichlerzowego datasetu wzrósł z 370 GB na imponujące 833.36 GB. To znaczące zwiększenie ilości zgromadzonych danych świadczy o intensyfikacji działań projektu w obszarze zbierania i analizy polskich tekstów.
  2. Przebicie wielkości datasetu The Pile: Speakleash przebił pod względem rozmiaru datasetu znany projekt The Pile, potwierdzając pozycję projektu jako jednego z największych źródeł danych tekstowych na świecie i z pewnością największego dla języka polskiego.
  3. Nowe dane z forów internetowych: Do naszej bazy dodanych zostało ponad 100 GB treści pochodzących głównie z różnych forów internetowych.
  4. Dane z datasetu CulturaX: wprowadziliśmy nowe dane z datasetu CulturaX, które zostały poddane szczegółowej analizie metrykami Speakleasha. Dodatkowo, dane zostały precyzyjnie skategoryzowane, co zwiększa ich użyteczność i wartość analityczną.

Zebranie 370GB w tak krótkim czasie świadczy o niesamowitym zaangażowaniu i wysokim tempie pracy osób wspierających rozwój projektu. Nie zamierzamy się zatrzymywać!

Jeżeli chcesz pomóc w osiągnięciu naszego podstawowego celu czyli zebrania 1TB polskich danych tekstowych to zapraszamy do współpracy! 

Kategorie
AI dataset

Pytech Summit 2023

🚀 Już w ten czwartek (7 grudnia) na Pytech Summit (https://pytechsummit.pl/) będziecie mieli przyjemność posłuchać reprezentacji zespołu Spichlerz, w składzie Szymon Baczyński i Igor Ciuciura. 🎙️

Prelekcja dotyczyć będzie tworzenia pakietu Speakleash jako narzędzia obsługi danych.

Konferencja odbywa się w trybie online. Zarezerwuj swój bilet już dziś! 🎟️

Kategorie
AI dataset

Ponad 370GB danych w Spichlerzu!

Od czasu ostatniej aktualizacji Spichlerzowego datasetu, zasoby tekstowe powiększyły się o kolejne 25 GB i tym samym przekroczyliśmy granicę 370 GB zgromadzonych danych.

Najnowsze informacje pochodzą z różnych źródeł internetowych, obejmujących szeroki zakres kategorii, od turystyki po informacje dotyczące gier komputerowych i usług internetowych. Dodatkowo, systematycznie uzupełniamy naszą bazę o treści pochodzące z różnych forów internetowych.

Trwają także końcowe prace nad nową wersją projektowego dashboardu prezentującego dane na temat datasetu. Nowa wersja będzie znacznie ulepszona pod kątem możliwości filtracji danych, wyglądu i wydajności. Stay tuned!

Kategorie
AI dataset

28GB nowych danych!

Witajcie Speakleashers! 

Chcielibyśmy podzielić się z Wami najnowszymi aktualizacjami dotyczącymi naszych danych treningowych. Od ostatniej aktualizacji udało nam się pozyskać imponujące 28GB nowych danych, które będą miały ogromne znaczenie dla rozwoju naszego modelu. 

Wśród tych danych szczególną uwagę warto zwrócić na rozbudowaną technologię OCR, która umożliwia analizę tekstu zawartego na obrazach. 

Ponadto udało nam się zdobyć znaczną ilość danych z kategorii motoryzacji oraz o tematyce sportowej. To niewątpliwie poszerzy nasze możliwości szkolenia modelu i umożliwi mu lepsze zrozumienie tych dziedzin. 

W ramach tych aktualizacji wprowadziliśmy również nowe metryki oceny jakości poszczególnych tekstów oraz całych paczek danych. Każdy tekst jest teraz oznaczany jako high, med lub low w zależności od jego jakości. To pomoże nam lepiej zrozumieć i selekcjonować wartościowe informacje. 

Dział inżynierii lingwistycznej pod wodzą Maria Filipkowska, PhD Filipkowska działa w pełnym wymiarze czasu i jest niezmiernie zaangażowany w rozwijanie naszych zasobów. Dzięki ich wysiłkom, nasz zespół jest gotowy, by dostarczyć Wam jeszcze lepsze dane treningowe. 

Dziękujemy Wam za cenne uwagi i wsparcie, które pomagają nam w rozwoju Speakleash. Pracujemy ciężko, aby dostarczyć Wam jak najlepsze doświadczenia i informacje. 

Zapraszamy do dalszego korzystania z naszych zasobów i życzymy Wam wspaniałego dnia!

#data #nlp #speakleash #datasets

Kategorie
AI dataset

Nowy odcinek podcastu!

Zapraszamy na premierę najnowszego odcinka podcastu NIELINIOWY na Youtube w którym Michal Dulemba rozmawia z ekipą techniczną naszego projektu: Maria Filipkowska, PhDJacek ChwiłaAdrian GwoździejGrzegorz Urbanowicz i Paweł Kiszczak.
https://lnkd.in/dESakTbb

Rozmowa m.in. na temat:
– ile danych już udało się zebrać
– różnorodności danych tekstowych
– sztucznie generowanych danych tekstowych
– kilometrach danych w archiwach państwowych
– motywacji członków ekipy
– korzyści z przystąpienia do Spichlerza
– różnorodności umiejętności technicznych przydatnych w Spichlerzu
– wpływu Spichlerza na rekrutację
– dumy z pracy nad typowo polskim projektem

Kategorie
AI dataset

Jesteśmy partnerami!

Z wielką dumą pragniemy poinformować, że zostaliśmy oficjalnymi partnerami wyjątkowego hackathonu – Hack to the Rescue!

Hack to the Rescue jest największym na świecie wydarzeniem z dziedziny Generative AI. Jego tegorocznym celem jest wyszukanie najskuteczniejszych rozwiązań, które pomogą organizacjom non-profit w radzeniu sobie z najpilniejszymi wyzwaniami, jakie niesie ze sobą współczesny świat. Jest to wydarzenie online, które odbędzie się 14-15 czerwca.

Pragniemy zaznaczyć, że wśród mentorów tego niezwykłego hackathonu znajdują się Maria Filipkowska oraz Adrian Gwoździej, którzy na co dzień z nami współpracują nad projektem Speakleash! Jest nam niezmiernie miło, że są z nami i swoją postawą motywują do ciągłego rozwoju.

Zapraszamy do zapoznania się ze szczegółami wydarzenia pod linkiem: https://hacktotherescue.org/

Kategorie
AI dataset

Wielki skok do przodu!

Mamy przyjemność poinformować, że nasz projekt Speakleash właśnie doczekał się ważnej aktualizacji danych – teraz dysponujemy aż 320GB materiałów!

W ramach tej aktualizacji dodaliśmy kilka istotnych zmian. Najważniejsza z nich to wprowadzenie nowych metryk oceniających jakość tekstu. Te metryki, teraz będą integralną częścią naszych datasetów, pozwalając na jeszcze precyzyjniejszą analizę i interpretację wyników.

Co więcej, poszerzyliśmy naszą bazę danych o kilka nowych zestawów danych. Wśród nich znajdą się między innymi artykuły sportowe, a także imponująca paczka kilkuset tysięcy plików przetworzonych za pomocą technologii OCR.

Na koniec warto wspomnieć, że kontynuujemy również pracę nad przygotowywaniem datasetów z for internetowych. Wierzymy, że te unikalne i różnorodne źródła danych przyczynią się do jeszcze lepszego zrozumienia i modelowania języka naturalnego.

Dziękujemy za wasze ciągłe wsparcie i zaangażowanie w projekt Speakleash! Jesteśmy podekscytowani tymi zmianami i nie możemy się doczekać, aby zobaczyć, jakie nowe możliwości przyniosą one dla naszej społeczności.

#speakleash #AI #NLP #BigData