Skip to content

Instantly share code, notes, and snippets.

View alonsoir's full-sized avatar
👋
time to learn SCADA.

@alonso_isidoro alonsoir

👋
time to learn SCADA.
View GitHub Profile
# Manual Técnico de Inteligencia en la Dark Web (DARKINT)
## Guía de Autoaprendizaje Avanzado para Analistas

Este documento constituye el manual de referencia técnico y la guía de estudio autodidacta para el dominio de la Inteligencia en la Dark Web (**DARKINT**). Está diseñado para proporcionar los fundamentos teóricos detallados, la arquitectura de red subyacente y los procedimientos operativos necesarios para ejecutar investigaciones en entornos hostiles y redes de anonimato sin depender de plataformas comerciales.

---

## MÓDULO 0: Fundamentos Avanzados del Cibercrimen
@alonsoir
alonsoir / llm-wiki.md
Created May 4, 2026 05:04 — forked from karpathy/llm-wiki.md
llm-wiki

LLM Wiki

A pattern for building personal knowledge bases using LLMs.

This is an idea file, it is designed to be copy pasted to your own LLM Agent (e.g. OpenAI Codex, Claude Code, OpenCode / Pi, or etc.). Its goal is to communicate the high level idea, but your agent will build out the specifics in collaboration with you.

The core idea

Most people's experience with LLMs and documents looks like RAG: you upload a collection of files, the LLM retrieves relevant chunks at query time, and generates an answer. This works, but the LLM is rediscovering knowledge from scratch on every question. There's no accumulation. Ask a subtle question that requires synthesizing five documents, and the LLM has to find and piece together the relevant fragments every time. Nothing is built up. NotebookLM, ChatGPT file uploads, and most RAG systems work this way.

@alonsoir
alonsoir / howto.md
Created February 23, 2026 11:45
deserializacion insegura en Java.

La deserialización insegura (como la que puede llevar a RCE) no ha desaparecido del ecosistema Java; # sigue presente en aplicaciones del mundo real, con impacto real en seguridad. Sin embargo, su

afectación concreta depende mucho de cómo estén construidas las aplicaciones y de sus dependencias.

La vulnerabilidad de deserialización insegura sigue siendo relevante en 2026 y se observa con

frecuencia en auditorías de seguridad de aplicaciones Java.

Su presencia no es inherente al lenguaje, sino al uso indebido de mecanismos como la serialización

Java nativa y a dependencias inseguras.

El impacto real en tu proyecto depende de si:

Usas serialización Java para entrada externa.

Dependes de librerías que aceptan datos no confiables sin validación.

No aplicas filtros y prácticas de defensiva en la deserialización.

@alonsoir
alonsoir / differente versions
Created November 13, 2025 05:53
La controversia entre ambos estilos (el clásico imperativo y el funcional con Streams) no es tanto de eficiencia como de legibilidad, semántica y filosofía de diseño.
### Version1
ExecutorService executor = Executors.newFixedThreadPool(Runtime.getRuntime().availableProcessors());
List<Callable<List<String>>> tareas = new ArrayList<>();
int chunkSize = usuarios.size() / Runtime.getRuntime().availableProcessors();
for (int i = 0; i < usuarios.size(); i += chunkSize) {
int start = i;
int end = Math.min(i + chunkSize, usuarios.size());
tareas.add(() -> {
@alonsoir
alonsoir / check-docker-security-v2.sh
Last active April 25, 2025 19:35
Este comando bash trata de averiguar vulnerabilidades en tu instalacion docker, comprobando si hay imagenes y contenedores que puedan usar el socket docker, o ejecutarse con --privileged entre otras muchas cosas. Basicamente es un wrapper trivy y checkov que a examinar todos los contenedores e imagenes de tu anfitrion.
#!/usr/bin/env bash
set -euo pipefail
IFS=$'\n'
##### CONFIGURACIÓN #####
OUTPUT_DIR="./output"
SKIP_PDF=false
SEND_MAIL=false
EMAIL_RECIPIENT="example@example.com"
HELP=false
@alonsoir
alonsoir / run-pipeline.sh
Last active June 10, 2025 10:06
El script automatiza un pipeline de reconocimiento y análisis de vulnerabilidades web en Kali Linux. Acepta como entrada un dominio objetivo y ejecuta una serie de herramientas especializadas, organizadas en fases, para extraer subdominios, escanear puertos, realizar fingerprinting y buscar posibles vulnerabilidades.
#!/bin/bash
set -e
# ==================== COLORES ====================
RED='\033[0;31m'
GREEN='\033[0;32m'
YELLOW='\033[1;33m'
BLUE='\033[1;34m'
NC='\033[0m' # Sin color
@alonsoir
alonsoir / compile.sh
Created April 16, 2025 07:03
GCC’s memcpy often leverages advanced techniques like vector instructions (SSE/AVX) and Enhanced REP MOVSB (ERMSB), which can hit higher bandwidths—sometimes over 20 GB/s on similar hardware, as seen in benchmarks from Handmade Network. ERMSB, introduced with Ivy Bridge, uses 256-bit internal operations on Haswell and later CPUs, avoiding cache …
nasm -f macho64 fast_memcpy.asm -o fast_memcpy.o
clang -O2 test_memcpy.c fast_memcpy.o -o test_memcpy
./test_memcpy
@alonsoir
alonsoir / delta_lake_data_analyst.py
Created March 26, 2025 12:10
The attemp to create a custom tool using agno. Delta_lake from Apache Spark
import asyncio
import os
from textwrap import dedent
from pyspark.sql import SparkSession
from pyspark.sql.functions import col
from agno.agent import Agent
from agno.models.openai import OpenAIChat
import requests
from dotenv import load_dotenv
import logging
@alonsoir
alonsoir / agno-sample.py
Last active March 25, 2025 12:09
Agno is a lightweight library for building Multimodal Agents. It exposes LLMs as a unified API and gives them superpowers like memory, knowledge, tools and reasoning.
# filepath: /Users/aironman/git/python-samples-2025/src/python_samples_2025/agno/agno-sample.py
import os
from agno.agent import Agent
from agno.models.openai import OpenAIChat
from dotenv import load_dotenv
load_dotenv()
# Obtén el token de la variable de entorno
openai_api_key = os.getenv("OPENAI_API_KEY")
if not openai_api_key:
┌<▸> ~/g/python-samples-2025
└➤ poetry run python src/python_samples_2025/rag_ollama_transcriber.py
❌ Ollama no está corriendo. Intentando iniciarlo...
⏳ Iniciando Ollama...
✅ Ollama está listo.
Modelos disponibles en Ollama:
1. my-codellama:latest
2. codellama:latest
3. neural-chat:latest
4. llama2:latest