התחל במצב לא מקוון עם האפליקציה Player FM !
News AI #16: OpenAI Sora // Gemini 1.5 // Stable Diffusion 3 // Groq // SDXL Lightning
Manage episode 403594281 series 2466248
Zwei Wochen sind seit unserer letzten AI-News-Folge vergangen und in der AI-Welt hat sich schon wieder einiges verändert. OpenAI hat einen nächsten Durchbruch mit ihrem „Text-to-Video“-Model Sora erreicht, Stable Diffusion 3 ist angekündigt, Gemini for Workspace wurde vorgestellt und Google hat ihr erstes Open-Source-Model auf Basis von Gemini veröffentlicht und es Gemma getauft.
Bytedance hat ebenfalls mal wieder im AI-Markt mitgemischt und ein destilliertes Model auf Basis von Stable Diffusion XL kreiert, welches in der 1-Step-Variante nur 120 ms Inference-Zeit benötigt und somit nahezu in Realtime Bilder erzeugt.
Mistral hat ihr neues Modell Mistral Large als Closed-Source-Model in ihrem API Store released, was in der Szene für großes Aufsehen gesorgt hat.
Eine völlig neue AI-Hardware wurde von Groq released, die ebenfalls die Inference-Zeiten drastisch reduzieren soll. Ob das allerdings eine marktfähige Lösung ist, diskutieren wir in dieser Folge.
Weitere Links, von denen wir in dieser Folge sprechen:
Soundtrack composed by AIVA (Artificial Intelligence Virtual Artist)
Schreibt uns!
Schickt uns eure Themenwünsche und euer Feedback:
323 פרקים
Manage episode 403594281 series 2466248
Zwei Wochen sind seit unserer letzten AI-News-Folge vergangen und in der AI-Welt hat sich schon wieder einiges verändert. OpenAI hat einen nächsten Durchbruch mit ihrem „Text-to-Video“-Model Sora erreicht, Stable Diffusion 3 ist angekündigt, Gemini for Workspace wurde vorgestellt und Google hat ihr erstes Open-Source-Model auf Basis von Gemini veröffentlicht und es Gemma getauft.
Bytedance hat ebenfalls mal wieder im AI-Markt mitgemischt und ein destilliertes Model auf Basis von Stable Diffusion XL kreiert, welches in der 1-Step-Variante nur 120 ms Inference-Zeit benötigt und somit nahezu in Realtime Bilder erzeugt.
Mistral hat ihr neues Modell Mistral Large als Closed-Source-Model in ihrem API Store released, was in der Szene für großes Aufsehen gesorgt hat.
Eine völlig neue AI-Hardware wurde von Groq released, die ebenfalls die Inference-Zeiten drastisch reduzieren soll. Ob das allerdings eine marktfähige Lösung ist, diskutieren wir in dieser Folge.
Weitere Links, von denen wir in dieser Folge sprechen:
Soundtrack composed by AIVA (Artificial Intelligence Virtual Artist)
Schreibt uns!
Schickt uns eure Themenwünsche und euer Feedback:
323 פרקים
כל הפרקים
×ברוכים הבאים אל Player FM!
Player FM סורק את האינטרנט עבור פודקאסטים באיכות גבוהה בשבילכם כדי שתהנו מהם כרגע. זה יישום הפודקאסט הטוב ביותר והוא עובד על אנדרואיד, iPhone ואינטרנט. הירשמו לסנכרון מנויים במכשירים שונים.