Kategorie
AI dataset

28GB nowych danych!

Witajcie Speakleashers! 

Chcielibyśmy podzielić się z Wami najnowszymi aktualizacjami dotyczącymi naszych danych treningowych. Od ostatniej aktualizacji udało nam się pozyskać imponujące 28GB nowych danych, które będą miały ogromne znaczenie dla rozwoju naszego modelu. 

Wśród tych danych szczególną uwagę warto zwrócić na rozbudowaną technologię OCR, która umożliwia analizę tekstu zawartego na obrazach. 

Ponadto udało nam się zdobyć znaczną ilość danych z kategorii motoryzacji oraz o tematyce sportowej. To niewątpliwie poszerzy nasze możliwości szkolenia modelu i umożliwi mu lepsze zrozumienie tych dziedzin. 

W ramach tych aktualizacji wprowadziliśmy również nowe metryki oceny jakości poszczególnych tekstów oraz całych paczek danych. Każdy tekst jest teraz oznaczany jako high, med lub low w zależności od jego jakości. To pomoże nam lepiej zrozumieć i selekcjonować wartościowe informacje. 

Dział inżynierii lingwistycznej pod wodzą Maria Filipkowska, PhD Filipkowska działa w pełnym wymiarze czasu i jest niezmiernie zaangażowany w rozwijanie naszych zasobów. Dzięki ich wysiłkom, nasz zespół jest gotowy, by dostarczyć Wam jeszcze lepsze dane treningowe. 

Dziękujemy Wam za cenne uwagi i wsparcie, które pomagają nam w rozwoju Speakleash. Pracujemy ciężko, aby dostarczyć Wam jak najlepsze doświadczenia i informacje. 

Zapraszamy do dalszego korzystania z naszych zasobów i życzymy Wam wspaniałego dnia!

#data #nlp #speakleash #datasets

Kategorie
AI dataset

Nowy odcinek podcastu!

Zapraszamy na premierę najnowszego odcinka podcastu NIELINIOWY na Youtube w którym Michal Dulemba rozmawia z ekipą techniczną naszego projektu: Maria Filipkowska, PhDJacek ChwiłaAdrian GwoździejGrzegorz Urbanowicz i Paweł Kiszczak.
https://lnkd.in/dESakTbb

Rozmowa m.in. na temat:
– ile danych już udało się zebrać
– różnorodności danych tekstowych
– sztucznie generowanych danych tekstowych
– kilometrach danych w archiwach państwowych
– motywacji członków ekipy
– korzyści z przystąpienia do Spichlerza
– różnorodności umiejętności technicznych przydatnych w Spichlerzu
– wpływu Spichlerza na rekrutację
– dumy z pracy nad typowo polskim projektem

Kategorie
AI dataset

Jesteśmy partnerami!

Z wielką dumą pragniemy poinformować, że zostaliśmy oficjalnymi partnerami wyjątkowego hackathonu – Hack to the Rescue!

Hack to the Rescue jest największym na świecie wydarzeniem z dziedziny Generative AI. Jego tegorocznym celem jest wyszukanie najskuteczniejszych rozwiązań, które pomogą organizacjom non-profit w radzeniu sobie z najpilniejszymi wyzwaniami, jakie niesie ze sobą współczesny świat. Jest to wydarzenie online, które odbędzie się 14-15 czerwca.

Pragniemy zaznaczyć, że wśród mentorów tego niezwykłego hackathonu znajdują się Maria Filipkowska oraz Adrian Gwoździej, którzy na co dzień z nami współpracują nad projektem Speakleash! Jest nam niezmiernie miło, że są z nami i swoją postawą motywują do ciągłego rozwoju.

Zapraszamy do zapoznania się ze szczegółami wydarzenia pod linkiem: https://hacktotherescue.org/

Kategorie
AI dataset

Wielki skok do przodu!

Mamy przyjemność poinformować, że nasz projekt Speakleash właśnie doczekał się ważnej aktualizacji danych – teraz dysponujemy aż 320GB materiałów!

W ramach tej aktualizacji dodaliśmy kilka istotnych zmian. Najważniejsza z nich to wprowadzenie nowych metryk oceniających jakość tekstu. Te metryki, teraz będą integralną częścią naszych datasetów, pozwalając na jeszcze precyzyjniejszą analizę i interpretację wyników.

Co więcej, poszerzyliśmy naszą bazę danych o kilka nowych zestawów danych. Wśród nich znajdą się między innymi artykuły sportowe, a także imponująca paczka kilkuset tysięcy plików przetworzonych za pomocą technologii OCR.

Na koniec warto wspomnieć, że kontynuujemy również pracę nad przygotowywaniem datasetów z for internetowych. Wierzymy, że te unikalne i różnorodne źródła danych przyczynią się do jeszcze lepszego zrozumienia i modelowania języka naturalnego.

Dziękujemy za wasze ciągłe wsparcie i zaangażowanie w projekt Speakleash! Jesteśmy podekscytowani tymi zmianami i nie możemy się doczekać, aby zobaczyć, jakie nowe możliwości przyniosą one dla naszej społeczności.

#speakleash #AI #NLP #BigData

Kategorie
AI dataset

Kolejny webinar!

Ledwie nacieszyliśmy się webinarem Python Data Summit, a już czeka na Nas kolejna prezentacja!
Serdecznie zapraszamy na konferencję, która odbędzie się w dniach 15-16 czerwca. Wśród prelegentów, oprócz standardowego duetu – Sebastiana Kondrackiego z Deviniti oraz Adriana Gwoździej z BTC i Banku Pekao S.A., znajdą się Maria Filipowska oraz Grzegorz Urbanowicz.
Podczas prezentacji omówione zostaną dotychczasowe osiągnięcia projektu SpeakLeash, a także porównamy je z innymi inicjatywami. Na pewno nie zabraknie też innych interesujących tematów.
Dla wszystkich chętnych do udziału w konferencji mamy kod na zniżkę -20%.
Do zobaczenia – nie może Was tam zabraknąć!

https://ml.dssconf.pl/

Kategorie
AI dataset

Jest nas 300!

Temperatura za oknem wzrasta, ale ma się to nijak co do naszego tempa zbierania danych. Koniec maja za pasem, a my osiągamy “3-kę” z przodu, a dokładnie 302GB!! Warto wspomnieć że jedynie 2 miesiące temu czyli na końcu marca mieliśmy tylko 120GB. Daje to optymistyczne prognozy kolejnych aktualizacji które będą się pojawiały jak najszybciej.
Ostatnie blisko 50GB to między innymi  fora kobiece, sportowe czy zdrowotne  oraz informacje publiczne.

Zapraszamy na nasz dashboard, gdzie dowiecie się o wiele więcej na temat zebranych przez Nas danych.

Udanego tygodnia!

Kategorie
AI dataset

Robimy webinar!

Nie tylko danymi człowiek żyję. Jako iż zainteresowanie naszym projektem jest większe niż mogliśmy się spodziewać, wychodzimy do Was z pomocną dłonią.

Już jutro nasi reprezentanci w osobie Sebastian Kondracki z Deviniti oraz Adrian Gwoździej z BTC i Bank Pekao S.A. opowiedzą jak efektywnie pozyskiwać duże zestawy danych tekstowych w Pythonie na przykładzie projektu SpeakLeash.org.

Konferencja odbędzie się jutro tj. 18 maja, o godzinie 13:00. Zapraszamy serdecznie. Nie może Was zabraknąć.

Link do wydarzenia:

https://pytechsummit.pl/ 👇

#python #data #speakleash #text #pytech #webinar

Kategorie
AI dataset

Ćwierćwiecze

Nowy tydzień, nowa aktualizacja!
Tym razem przekraczamy magiczną liczbę oznaczającą realizację ćwiartki naszego celu. 255.1 GB lub 255 100MB(co brzmi jeszcze bardziej imponująco) to dokładna pojemność danych tekstowych w języku polskich jaką udało nam się do tej pory zebrać. Zebrane dane, podobnie jak ostatnio, dotyczyły kategorii fora i edukacja.

Znając naszych badaczy, za tydzień będziemy jeszcze bliżej celu, bo tempo zbierania danych rośnie wręcz wykładniczo. Jest to zasługa również osób które w ostatnich tygodniach dołączyły do projektu zainspirowanych pomysłem, aby wspomóc naszą pracę. 
Jeśli jesteś zainteresowany być częścią czegoś wielkiego, napisz do nas!!
Link do kontaktu w komentarzu. 👇

Kategorie
AI dataset

Dotrzymaliśmy słowa

Przychodzimy z pozytywnymi wieściami! Tak jak obiecaliśmy udało nam się przekroczyć ponad 200GB przed “majówką’. Mało tego obecnie licznik zatrzymał się na ponad 217GB, chodź nie jesteśmy pewni czy w trakcie pisania tego posta już się coś nie zmieniło 🙂

Główne źródła pozyskania danych dotyczą forów z dziedziny lifestyle and beauty.

Nie jesteśmy w stanie opisać ogromu pracy i poświęcenia naszych ekspertów. Dziękujemy !

Tym samym, opierając się na ostatniej aktualizacji projektu OSCAR z 23.01(https://oscar-project.github.io/documentation/versions/oscar-2301/)) prześcigamy wspomniany projekt pod kątem wielkości zbioru danych, aż o 40%.

Będziemy na bieżąco informować Was o kolejnych zmianach. My z niecierpliwością czekamy na kolejne aktualizacje.

Produktywnego popołudnia 🙂

Kategorie
AI dataset

Jesteśmy liderami!

Jak obiecaliśmy, kolejne dane z kategorii blogów i edukacji są już w naszym spichlerzu! Aby mieć pojęcie przed jakim zadaniem stoimy to same dane z tej kategorii to 2.9mln plików a to tylko ułamek tego co zebraliśmy. Kolejny dodany zestaw danych dotyczy ofert pracy. Dzięki temu w chwili obecnej nasz projekt ma największą liczbę polskich danych!