DeepSeek R3: chiński model pobija o10 w matematyce przy 1/10 kosztu tr·93OpenAI prezentuje GPT-5: rewolucja w rozumowaniu AI·92Anthropic Claude 4 Opus: najlepsza AI do kodowania według Stack Overfl·91OpenAI Sora 2 generuje wideo 4K z 60fps: test polskich twórców·90Google DeepMind: Gemini Ultra 2 bije rekordy na 47 benchmarkach·89Meta wypuszcza Llama 4 Scout: 17B model bije GPT-4o w 8 językach·88Polska: AI Act wchodzi w życie — co muszą wiedzieć firmy·88Nvidia H200 Ultra: nowy chip AI 3x szybszy od H100 dostępny dla start-·87Mistral AI zamknęło rundę Series C: 600M USD przy wycenie 6 mld USD·86Runway Gen-4: generowanie wideo z konsekwentnymi postaciami przez całą·86DeepSeek R3: chiński model pobija o10 w matematyce przy 1/10 kosztu tr·93OpenAI prezentuje GPT-5: rewolucja w rozumowaniu AI·92Anthropic Claude 4 Opus: najlepsza AI do kodowania według Stack Overfl·91OpenAI Sora 2 generuje wideo 4K z 60fps: test polskich twórców·90Google DeepMind: Gemini Ultra 2 bije rekordy na 47 benchmarkach·89Meta wypuszcza Llama 4 Scout: 17B model bije GPT-4o w 8 językach·88Polska: AI Act wchodzi w życie — co muszą wiedzieć firmy·88Nvidia H200 Ultra: nowy chip AI 3x szybszy od H100 dostępny dla start-·87Mistral AI zamknęło rundę Series C: 600M USD przy wycenie 6 mld USD·86Runway Gen-4: generowanie wideo z konsekwentnymi postaciami przez całą·86
arXiv: Nowa architektura RWKV-7 osiąga 95% wydajności Transformerów przy 30% kosztów
AIFAKT.COM·arxiv.org·18.04.2026 11:00
RWKV-7 — przełom w efektywności
Badacze z EleutherAI opublikowali paper opisujący RWKV-7, architekturę sieci neuronowej która łączy zalety RNN i Transformerów. Model osiąga 95% wydajności GPT-4 przy 30% kosztów obliczeniowych.
Kluczowe wyniki
Perplexity 18.4 na The Pile vs 19.1 dla Transformer baseline
Skalowanie liniowe ze wzrostem kontekstu (Transformer: kwadratowe)