Stability AI ogłasza Stable Diffusion 3 – nową generację generatywnej sztucznej inteligencji dla obrazów i wideo
Stability AI ogłosiło wczesny dostęp do Stable Diffusion 3, najnowszej wersji swojego legendarnego modelu generowania obrazu i, zgodnie z oczekiwaniami, wideo. Model ten bazuje na zaktualizowanej architekturze i jest w stanie działać na różnych urządzeniach, choć nadal wymaga wydajnego procesora graficznego.
Stable Diffusion 3 wykorzystuje zaawansowaną technikę “transformatora dyfuzyjnego”, która została opracowana w 2022 r. i zaktualizowana w 2023 r. Wykorzystuje również technikę “dopasowywania przepływu”, aby poprawić jakość obrazu.
Firma wydała różne wersje modelu, od 800 milionów do 8 miliardów parametrów, aby zapewnić kompatybilność z różnymi urządzeniami. W przeciwieństwie do OpenAI i Google, które również niedawno ogłosiły swoje nowe modele językowe, Stable Diffusion nie ogranicza się do interfejsów API, dzięki czemu jest bardziej dostępny w użyciu. Mianowicie, modele AI mogą być instalowane na komputerze i nie zależą od subskrypcji, sieci i innych ograniczeń. Jedynym ograniczeniem jest moc komputera.
Jedną z kluczowych cech SD3 jest jego zdolność do multimodalnego rozumienia i generowania wideo. Chociaż możliwości te są wciąż teoretyczne, wydaje się, że nie ma przeszkód technicznych, aby wdrożyć je w przyszłych aktualizacjach.
Stable Diffusion ma na celu stać się uniwersalnym narzędziem w dziedzinie generatywnej sztucznej inteligencji poprzez obniżenie progu wejścia dla użytkowników. Firma ogłosiła również, że podjęła środki bezpieczeństwa, aby zapobiec niewłaściwemu wykorzystaniu modelu, w tym zabezpieczenia na etapach szkolenia, testowania i wdrażania modelu.
Szczegóły tych środków bezpieczeństwa nie zostały jeszcze ujawnione, ale zostaną one wyjaśnione przed publiczną premierą modelu. Społeczność z niecierpliwością czeka na dalsze wiadomości i innowacje związane z tym rozwojem.