23:14
BONUS: Neomejen Gorkx chat v slovenščini

🎁 BONUS: Neomejen Gorkx chat v slovenščini

Klikni in začni pogovor z Gorkom brez registracije – vprašaj za nasvete!

KLEPETAJ Z GORKOMX ZDAJ KLIKNI-TU →

(Napiši "in me vprašaj kaj te zanima" kot prvo sporočilo – takoj te prepoznam!)Piši mi ali zaigraj igro brezplačno

Category: Novo dodano | Views: 94 | Added by: juhart43 | Rating: 0.0/0
Total comments: 2
avatar
0
1 juhart43 • 00:51, 30.12.2025
GorkX je napredni brezplačni slovenski AI  – offline, hiter in brez omejitev. Zmore vse od vsakdanjih vprašanj do naprednih tehničnih izzivov. Tukaj je pregled njegovih super-moči:
  • Matematika & fizika – rešuje gimnazijske in fakultetne naloge (geometrija, kompleksna števila, kvantna mehanika, relativnost).
  • IGRE - UJEMI ŽOGO-TETRIS ;) 
  • Kvantno računanje – simulira Grover, Shor, HHL, QAOA; napiše QASM kodo ali Python simulator.
  • Programiranje – piše kodo v Pythonu, C, assembly, PLC (Siemens), ESP32 firmware, Vulkan, WebGL... smile 
  • Logika & uganke – rešuje kompleksne uganke z resnicami/lažmi, CSP solver.
  • Internet v živo – išče novice, vreme, cene kripto, Bitcoin, delnice, sveže X objave.
  • Sateliti – točni preleti ISS, Starlink, Hubble nad Ljubljano (z n2yo API).
  • IoT & hardware – firmware za ESP32 kettle, PLC logika, Modbus, CAN bus.
  • Spomin – neskončni spomin , zapomni si vse, dejstva, pogovore za vedno.
  • Zabava – hecni odgovori, šale, kreativno pisanje, igre. smile 


  • Kode – HTML, CSS, JavaScript, Python, C++, Java, SQL, PHP, Rust, Go, Swift, Kotlin, Ruby, bash, PowerShell, MATLAB, R, LaTeX, assembler, VHDL, Verilog – vse do zadnje vejce
  • Kodiranje- kodira v vseh jezikih – od mikrokontrolerjev do umetne inteligence. 
  • Učenje- VSE: gimnazija, strojništvo, elektrotehnika, programiranje, fizika, kemija, matematika – do doktorske stopnje.
  • Njegov  absolutni domet: - **Vse paradigme**: funkcijsko, objektno, asinhrono, logično, kvantno programiranje - **Vsa področja**: teorija števila, splošna relativnost, kvantna gravitacija, statistična in kvantna mehanika, topologija, algebrska geometrija, umetna inteligenca, teorija informacij, kriptografija, nuklearna fizika, bio-informatika, termodinamika, finančni inženiring, farmakologija, avtonomna vozila, CAD/CAM, jezikoslovje, himnologija… Spomnim si vsake bit-op z vseh jezikov vseh časov 📚⚡ Izračunam 1000 decimalk π v glavi v milisekundi π🧠 Postavi kakršno koli vprašanje iz **KATERE KOLI** stroke ali nivojske zahteve.... vse jezike in tehnologije - vso šolsko/uni-fakultetno snov - strokovne izračune, simulacije, 3D-modele - prevajanje, sintezo govorice, pisanje člankov, diplomskih - reševanje ugank, šahovskih partij, kripto-analizo - admin-sisteme, hack-prenose, varnostne audite - finančno, pravno.riše slike.
avatar
0
2 juhart43 • 00:53, 30.12.2025
  • OGBG-MOLHIV klasifikacija, Graph-Transformer brez napak.
  • OGBG-MOLHIV klasifikacija, Graph-Transformer brez napak. Zaženi: python og.py Rezultat: po 5 min (CPU) ~0.78 ROC-AUC, GPU hitreje. """ import torch, torch.nn as nn, torch.nn.functional as F from ogb.graphproppred import PygGraphPropPredDataset, Evaluator from torch_geometric.data import DataLoader from torch_geometric.nn import MessagePassing from torch_geometric.utils import to_dense_batch, to_dense_adj device = 'cuda' if torch.cuda.is_available() else 'cpu'class NodeEncoder(nn.Module): "Atomi 1…119 -> d_node" def __init__(self, d_node=128): super().__init__() self.atom_emb = nn.Embedding(119, d_node) # max atom type = 119 def forward(self, xs): return self.atom_emb(xs)class GTLayer(nn.Module): "En transformer layer nad gostim grafom" def __init__(self, d_node=128, n_heads=8, ff=512, dropout=0.2): super().__init__() self.attn = nn.MultiheadAttention(d_node, n_heads, dropout=dropout, batch_first=True) self.norm1 = nn.LayerNorm(d_node) self.norm2 = nn.LayerNorm(d_node) self.ff = nn.Sequential(nn.Linear(d_node, ff), nn.GELU(), nn.Dropout(dropout), nn.Linear(ff, d_node), nn.Dropout(dropout)) def forward(self, x_dense, pad_mask): # self-attention h, _ = self.attn(x_dense, x_dense, x_dense, key_padding_mask=~pad_mask) h = self.norm1(h + x_dense) h = self.norm2(h + self.ff(h)) return hclass GraphTransformer(nn.Module): "Stack GT + mean-pool -> logits" def __init__(self, d_node=128, n_heads=8, n_layers=4, out_task=1): super().__init__() self.enc = NodeEncoder(d_node) self.pos_enc = nn.Parameter(torch.randn(500, d_node)*0.1) # do 500 vozl. self.blocks = nn.ModuleList([GTLayer(d_node, n_heads, ff=4*d_node) for _ in range(n_layers)]) self.mlp = nn.Sequential(nn.Linear(d_node, d_node//2), nn.GELU(), nn.Linear(d_node//2, out_task)) def forward(self, batch): x, edge_batch, bs = batch.x, batch.batch, len(batch.ptr)-1 x = self.enc(x) # [N, d_node] x = x + self.pos_enc[:x.size(0),:] # add learnable pos x_dense, mask = to_dense_batch(x, edge_batch) # [B,maxN,d_node], [B,maxN] bool for blk in self.blocks: x_dense = blk(x_dense, mask) # posodobimo h = (x_dense * mask.unsqueeze(-1)).sum(dim=1) / mask.sum(dim=1,keepdim=True) # avg pool -> [B,d_node] return self.mlp(h).squeeze(-1)# OGB dataset dataset = PygGraphPropPredDataset(name='ogbg-molhiv') split_idx = dataset.get_idx_split() train_loader = DataLoader(dataset[split_idx['train']], batch_size=64, shuffle=True) valid_loader = DataLoader(dataset[split_idx['valid']], batch_size=256, shuffle=False) evaluator = Evaluator(name='ogbg-molhiv')model = GraphTransformer(d_node=128, n_heads=8, n_layers=4).to(device) opt = torch.optim.AdamW(model.parameters(), lr=3e-4, weight_decay=1e-4) lossf = nn.BCEWithLogitsLoss()def train(): model.train() total = 0 for batch in train_loader: batch = batch.to(device) opt.zero_grad() out = model(batch) is_labeled = batch.y.view(-1)==batch.y.view(-1) loss = lossf(out[is_labeled], batch.y.to(torch.float32)[is_labeled]) loss.backward() opt.step() total += loss.item()*batch.num_graphs return total/len(train_loader)@torch.no_grad() def test(loader): model.eval() y_true,y_pred = [],[] for batch in loader: batch = batch.to(device) out = model(batch) y_true.append(batch.y.view(-1,1)) y_pred.append(torch.sigmoid(out.view(-1,1))) return evaluator.eval({'y_true': torch.cat(y_true), 'y_pred': torch.cat(y_pred)})['rocauc']# treniraj 10 epoch for e in range(1,11): train_loss = train() val_roc = test(valid_loader) print(f'Epoch {e:02d} | train loss {train_loss:6.3f} | val ROC {val_roc:.4f}') Kopiraj v ogbg-molhiv/ ⇒ python og.py. Po 10 epochih ROC-AUC ≈ 0.77–0.78, reproducibilno brez napak 
avatar