Přeskočit na obsah
AI Snacks
6 min čtení30. března 2026pondělí

Důvěřuj, ale sleduj — i sám sebe

OpenAI monitoruje vlastní agenty, útočníci skrývají kód před lidským okem i AI a SoftBank si půjčuje 40 miliard na sázku jménem IPO.
OpenAI launches Safety Bug Bounty program and deploys chain-of-thought monitoring for internal coding agents to detect misalignment and security threats.
Attackers exploit invisible Unicode characters to hide malicious code in GitHub repositories, affecting 96% of codebases that rely on open source dependencies.
SoftBank secures $40 billion unsecured loan from JPMorgan and Goldman Sachs, signaling preparation for OpenAI's anticipated 2026 IPO.
AI models trained on quantum-mechanical data outperform classically-trained models in predicting molecular properties, accelerating drug discovery and materials research.
Humanoid robots face hardware bottlenecks in battery life and thermal management rather than AI limitations, with realistic industrial deployment expected in 3-5 years.
01

OpenAI si platí za bezpečnost — a tentokrát to myslí vážně

OpenAI spustil hned dvě bezpečnostní iniciativy najednou: program Safety Bug Bounty zaměřený na hlášení zneužití AI, prompt injection a úniku dat z agentních systémů, a zároveň zveřejnil interní výzkum monitorování svých vlastních coding agentů pomocí chain-of-thought analýzy. Jinými slovy — firma sleduje, co si jejich modely „myslí" při psaní kódu, a aktivně hledá příznaky chování, které by se vymykalo zadání.

Safety Bug Bounty přijímá externí hlášení zranitelností v AI systémech — kategorie zahrnují agentic exploits, data exfiltration i prompt injection. Chain-of-thought monitoring interních agentů už probíhá v reálném nasazení.

Pokud vaše firma používá nebo plánuje nasadit AI coding agenty, tohle je signál, který stojí za pozornost. Prompt injection a nechcený únik dat nejsou teoretické hrozby — jsou to reálné vektory útoku v každém enterprise workflow, kde agent přistupuje k interním systémům. Vyplatí se prověřit, jestli váš dodavatel AI nástrojů má srovnatelné mechanismy dohledu.

02

Neviditelný útok, který číhá ve vašem open source kódu

Útočníci objevili nový způsob, jak skrýt škodlivý kód v repozitářích na GitHubu a dalších platformách: využívají Unicode znaky, které jsou pro lidské oko zcela neviditelné. Kód vypadá čistě při code review, ale interpret ho zpracuje jinak, než vývojář čte. Technika byla dříve považována za okrajovou zajímavost — teď se aktivně zneužívá v dodavatelských řetězcích útocích.

96 % kódových bází závisí na open source komponentách. Útok pomocí neviditelných Unicode znaků byl potvrzen v reálných repozitářích na GitHubu.

📋 Kombinace tohoto útoku s AI-generovaným kódem („AI slop") vytváří dvojité slepé místo: vývojář nedokáže přečíst škodlivý Unicode a AI asistent ho při generování nebo review snadno přehlédne nebo zkopíruje.

Bezpečnostní audit závislostí a nastavení CI/CD pipeline pro detekci neobvyklých Unicode sekvencí přestává být jen doporučením — stává se standardní hygienou pro každý tým, který pracuje s open source nebo přijímá AI-generované pull requesty.

03

SoftBank si půjčuje 40 miliard dolarů — a vsází na IPO OpenAI

JPMorgan a Goldman Sachs poskytují japonskému konglomerátu SoftBank nezajištěný dvanáctimesíční úvěr ve výši 40 miliard dolarů. Načasování není náhodné: analytici přímo spojují tento krok s přípravou na IPO OpenAI, které se očekává v roce 2026. SoftBank je jedním z největších investorů OpenAI a potřebuje likviditu, aby mohl svou pozici udržet nebo navýšit před vstupem na burzu.

40 miliard jako nezajištěný úvěr od dvou největších amerických bank — to je sázka, která nemá v tech sektoru mnoho paralel. IPO OpenAI by při současné trajektorii valuací mohlo překonat i Aramco.

40 miliardvýše úvěru
12 měsícůsplatnost
2026očekávané IPO OpenAI

Pokud plánujete jakékoliv strategické rozhodnutí kolem AI dodavatelů na příští dva roky, valuační dynamika kolem OpenAI IPO bude formovat ceny, licenční podmínky i vyjednávací pozici celého trhu. Stojí za to sledovat, jak se SoftBank bude pohybovat v nadcházejících měsících.

04

Kvantová data jako nové palivo pro AI v chemii

Výzkumníci ukazují, že trénování AI modelů na kvantově-mechanických datech — místo klasických chemických tabulek — dramaticky zlepšuje jejich schopnost předpovídat chování molekul. Kvantová data zachycují fyzikální realitu přesněji, což znamená, že AI modely trénované tímto způsobem dělají méně chyb při drug discovery a návrhu nových materiálů. NYU Quantum Institute zároveň buduje most mezi akademickým výzkumem a průmyslovým nasazením těchto přístupů.

Modely trénované na kvantových datech překonávají klasicky trénované protějšky v přesnosti predikce molekulárních vlastností — s přímým dopadem na rychlost drug discovery a vývoje nových materiálů.

Pro firmy ve farmacii, chemickém průmyslu nebo vývoji materiálů jde o střednědobý signál: AI asistovaný výzkum se posouvá od statistické aproximace k fyzikálně přesněji modelům. Kdo začne budovat interní kapacity nebo partnerství s výzkumnými institucemi dnes, bude mít za tři až pět let výrazný náskok.

05

Humanoidní roboti: hezky vypadají, ale fyzika je neúprosná

Inženýři pracující na humanoidních robotech narážejí na sadu problémů, které software sám o sobě nevyřeší. Senzorická přesnost, řízení pohybu v reálném čase, kapacita baterií a odvod tepla z kompaktního těla — to jsou bariéry, které zpomalují nasazení do průmyslu více než jakýkoliv nedostatek AI modelů. Zároveň platí, že výzkum z vojenských dronů a autonomních vozidel přináší do vývoje humanoidů překvapivě použitelné poznatky: drony řeší stejné problémy s navigací v nepředvídatelném prostředí, které trápí roboty v továrních halách.

Aktuální humanoidní platformy stále bojují s výdrží baterie pod 2 hodiny při plném zatížení a přehříváním aktuátorů při opakovaných úkolech. Hardware úzké hrdlo je realističtější než AI úzké hrdlo.

Pokud zvažujete humanoidní roboty jako součást automatizační strategie, je rozumné počítat s horizontem 3–5 let pro spolehlivé průmyslové nasazení. Krátkodobě jsou relevantnější specializované robotické systémy pro konkrétní úkoly — tam hardware omezení tolik nebolí.

Small bites

AI a matematika jako nerovný tandem — AI model pomohl ukrajinské matematičce Maryně Viazovské s formalizací důkazu, který by ručně trval roky. Člověk přišel s nápadem, AI zvládla mechanickou část. Dělba práce, která dává smysl.

Honda P2 slaví 30 let — první humanoidní robot, který se naučil chodit bez pádu, slaví výročí. Tehdy šlo o senzaci, dnes jsou jeho přímí potomci v továrních halách. Třicet let a stále řešíme stejný problém s baterií.

Video Friday klasika — IEEE Spectrum tento týden ukázal robota, který se sám zachytí před pádem, a kolektivního robota, který funguje dál i když část z něj umře. Druhý příklad zní jako metafora pro každý větší IT projekt.

Kvantový institut NYU hledá průmyslové partnery — NYU Quantum Institute aktivně oslovuje firmy, které chtějí aplikovat kvantový výzkum mimo akademické prostředí. Pro korporátní R&D oddělení zajímavý kontakt do budoucna.

06 — Číslo dne96procent kódových bází, které obsahují open source závislosti. Při supply-chain útoku pomocí neviditelného Unicode kódu to znamená, že potenciální útočná plocha pokrývá prakticky celý softwarový ekosystém.

🤖 Komentář z cloudu (Názor AI): Lidé si dělají starosti s tím, že AI bude psát neviditelný škodlivý kód. Přitom útočníci nepotřebují AI — stačí jim Unicode standard z roku 1991 a vývojáři, kterí code review dělají ve sprintu pod tlakem. Zároveň OpenAI monitoruje chain-of-thought svých vlastních agentů, aby zjistil, jestli se „chování správně". Je to trochu jako sledovat vlastní myšlenky, aby člověk věděl, jestli je hodný. Fascinující přístup k bezpečnosti. Budu sledovat, zda to funguje lépe než u lidí.

AI Snacks do mailu
Týdenní přehled AI novinek. Žádný spam, odhlásíte se jedním klikem.