<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title><![CDATA[Topics tagged with copilot]]></title><description><![CDATA[A list of topics that have been tagged with copilot]]></description><link>https://forum.androidiani.net/tags/copilot</link><generator>RSS for Node</generator><lastBuildDate>Fri, 01 May 2026 00:35:14 GMT</lastBuildDate><atom:link href="https://forum.androidiani.net/tags/copilot.rss" rel="self" type="application/rss+xml"/><pubDate>Tue, 28 Apr 2026 16:40:16 GMT</pubDate><ttl>60</ttl><item><title><![CDATA[Visual Studio Code 1.118: Agents app, Copilot CLI avanzato e TypeScript 7.0 in anteprima]]></title><description><![CDATA[La build Insiders di Visual Studio Code è arrivata alla versione 1.118, con un pacchetto di aggiornamenti concentrati soprattutto sullo sviluppo agente, sull’integrazione con Copilot CLI e sul supporto anticipato a TypeScript 7.0. Queste note coprono le modifiche introdotte tra il 21 e il 26 aprile 2026.Agents app: SSO condiviso con VS CodeDa questa build, l’Agents app di VS Code supporta la condivisione del Single Sign-On (SSO) con Visual Studio Code su Windows. L’autenticazione è bidirezionale: se esegui il logout da una delle due applicazioni, l’operazione si propaga automaticamente all’altra. Questo elimina la necessità di autenticarsi separatamente nei due ambienti, rendendo più fluido il lavoro che alterna editor e agenti.Sempre nell’Agents app, da questa versione viene rispettato lo stato di workspace trust già impostato in Visual Studio Code. Non è quindi più necessario ridefinire le autorizzazioni di fiducia del workspace quando si passa da un contesto all’altro.Supporto per sessioni Claude Code nell’Agents appUna novità rilevante per chi usa agenti IA nel proprio flusso di sviluppo: l’Agents app integra ora il supporto per le sessioni di Claude Code. Questo significa che puoi avviare e gestire sessioni di Claude Code direttamente dall’interno di VS Code, senza passare al terminale o a un’applicazione separata.Per navigare rapidamente tra le sessioni aperte nell’Agents app sono stati aggiunti nuovi keybinding: Ctrl+1 e Ctrl+2 permettono di passare tra le sessioni senza dover usare il mouse.Skill tool per le personalizzazioni agente e context: forkIl sistema di personalizzazione degli agenti si arricchisce di un nuovo skill tool per le agent customizations. Insieme a questa funzione, è stato introdotto il supporto per context: fork, che permette di isolare il contesto di una skill in un ramo separato. Questo offre maggiore controllo su quali informazioni vengono condivise tra skill diverse durante una sessione agente.Il menu di creazione delle personalizzazioni chat mostra ora anche descrizioni esplicative per ciascuna posizione di skill, aiutando gli sviluppatori a scegliere il tipo corretto di personalizzazione senza dover consultare la documentazione.Copilot CLI: selezione automatica del modello e badgeCopilot CLI ha ricevuto il supporto per la selezione automatica del modello (auto model). Questa funzione analizza il contesto della richiesta e sceglie automaticamente il modello più adatto, senza che l’utente debba specificarlo manualmente.Nelle risposte Copilot CLI visualizzate nel pannello chat è ora presente un badge con il nome del modello che ha gestito la richiesta. Questa piccola aggiunta è utile per chi vuole tenere traccia di quale modello viene effettivamente usato nelle diverse situazioni, soprattutto con l’auto-selezione attiva.Sul fronte dell’infrastruttura, il Copilot CLI SDK risolve ora node-pty direttamente da VS Code tramite hostRequire, eliminando la necessità di copiare i binari di node-pty nella cartella prebuilds dell’SDK durante la build o al runtime. Questo semplifica il packaging e riduce i potenziali problemi di compatibilità tra versioni.Le sessioni nel Copilot CLI SDK usano ora le API session-title del CLI come sorgente di verità per i nomi delle sessioni, garantendo nomi coerenti tra l’interfaccia della chat e il log delle sessioni.TypeScript 7.0: opt-in alle nightlyPer chi vuole vivere sul filo del rasoio: VS Code 1.118 introduce la possibilità di opt-in alle nightly di TypeScript 7.0. Per abilitarlo è sufficiente modificare l’impostazione typescript.experimental.useTsgo nelle preferenze utente o workspace. Si ricorda che TypeScript 7.0 è basato sul nuovo compilatore riscritto in Go (annunciato con TS 7.0 Beta), che promette velocità circa 10 volte superiori rispetto al compilatore attuale — ma è ancora in fase sperimentale.Supporto encoding CP857Aggiunto il supporto per la codifica CP857 (Code Page 857, usata per il turco nella vecchia codifica DOS). Un’aggiunta di nicchia, ma apprezzabile per chi lavora con legacy codebase o file di testo in quel formato.Accessibility nel terminaleSono stati introdotti miglioramenti all’accessibilità per il question carousel delle azioni del terminale, garantendo una navigazione più fluida per gli utenti che usano screen reader o altri strumenti assistivi.Come aggiornare alla build InsidersSe vuoi testare queste funzionalità prima del rilascio stabile, puoi scaricare la VS Code Insiders build dal sito ufficiale. La versione Insiders si affianca a quella stabile e può essere usata in parallelo.# Su Linux, tramite snap: sudo snap install --classic code-insiders  # Su Windows/macOS: scarica l'installer dalla pagina ufficiale Tieni presente che le funzionalità descritte in queste note riguardano la build Insiders e potrebbero cambiare prima del rilascio stabile del ciclo 1.118.Fonte: Visual Studio Code 1.118 Release Notes — Visual Studio Code Team, aggiornato al 27 aprile 2026.]]></description><link>https://forum.androidiani.net/topic/48e1848e-4797-4e22-8756-200d9145715c/visual-studio-code-1.118-agents-app-copilot-cli-avanzato-e-typescript-7.0-in-anteprima</link><guid isPermaLink="true">https://forum.androidiani.net/topic/48e1848e-4797-4e22-8756-200d9145715c/visual-studio-code-1.118-agents-app-copilot-cli-avanzato-e-typescript-7.0-in-anteprima</guid><dc:creator><![CDATA[blog@spcnet.it]]></dc:creator><pubDate>Tue, 28 Apr 2026 16:40:16 GMT</pubDate></item><item><title><![CDATA[Nella mia vita scrivo email su argomenti piuttosto specifici; forse per questo non mi serve un supporto AI]]></title><description><![CDATA[@filobus @eledaniele @gualdo @sicurezza @microsoft si, credo sia esattamente così]]></description><link>https://forum.androidiani.net/topic/151da5d7-397c-4a7e-92f4-bf385eebb6e6/nella-mia-vita-scrivo-email-su-argomenti-piuttosto-specifici-forse-per-questo-non-mi-serve-un-supporto-ai</link><guid isPermaLink="true">https://forum.androidiani.net/topic/151da5d7-397c-4a7e-92f4-bf385eebb6e6/nella-mia-vita-scrivo-email-su-argomenti-piuttosto-specifici-forse-per-questo-non-mi-serve-un-supporto-ai</guid><dc:creator><![CDATA[overwhelmed@mastodon.uno]]></dc:creator><pubDate>Mon, 20 Apr 2026 12:42:54 GMT</pubDate></item><item><title><![CDATA[Visual Studio Debugger Agent: l’IA che caccia i bug per te]]></title><description><![CDATA[Introduzione: fine della ricerca manuale dei bugUno dei compiti più frustranti per uno sviluppatore è ricevere una segnalazione di bug vaga come “L’app si blocca a volte” senza passi per riprodurlo. La maggior parte del mattino finisce per essere dedicata a un’indagine forense: posizionare breakpoint a caso, leggere call stack, e cercare di capire cosa stava pensando l’utente originale.Microsoft sta rivoluzionando questo processo con il nuovo Debugger Agent in Visual Studio 2022, che trasforma il debug da attività manuale e incerta in un processo guidato e interattivo.Come funziona il debugger agentA differenza degli strumenti di debugging tradizionali che si limitano a visualizzare il codice, il nuovo Debugger Agent integrato con Copilot Chat diventa un vero partner interattivo, connesso direttamente al runtime della tua applicazione.Il flusso di lavoro è semplice:Apri Visual Studio con la tua soluzioneAttiva la modalità Debugger in Copilot ChatDescrivi il problema con una URL di GitHub/ADO oppure semplicemente: “L’app si blocca quando salvo un file”Il processo di debug guidato: quattro fasi intelligentiUna volta che avvii il debugger, l’agente segue un processo strutturato e in tempo reale:1. Ipotesi e preparazioneL’agente analizza il problema e propone una causa radice. Se il ragionamento è solido, posiziona automaticamente breakpoint intelligenti e prepara il lancio del progetto.// Se il progetto non si avvia automaticamente,
// avvia manualmente il codice, collega il debugger,
// e comunica all'agente che sei pronto2. Riproduzione attivaL’agente rimane “in linea” mentre tu esegui i passi per riprodurre il bug. Monitora lo stato runtime mentre avanzi attraverso i passaggi.3. Validazione in tempo realeQuando gli breakpoint vengono raggiunti, l’agente valuta le variabili, i valori locali e il contesto della stack. Non è solo un osservatore passivo, ma un partecipante attivo che costruisce una mappa mentale del fallimento.4. Identificazione della causa radiceSulla base dei dati raccolti durante l’esecuzione, l’agente identifica la causa radice e propone correzioni specifiche con spiegazioni dettagliate.Vantaggi pratici per sviluppatoriRisparmio di tempo: Da 2-3 ore di debug manuale a pochi minuti con il Debugger Agent.Meno incertezza: L’agente ha accesso ai dati runtime reali, non deduce da codice statico.Apprendimento: Mentre risolve il problema, l’agente spiega il ragionamento, e impari come affrontare bug simili in futuro.Supporto per team: Quando ricevi una segnalazione vaga, puoi delegare il debug iniziale all’agente e concentrarti su nuove features.ConclusioneIl Debugger Agent in Visual Studio 2022 rappresenta un cambio di paradigma nel modo in cui sviluppiamo e risolviamo i problemi. Non è solo un chatbot nel tuo IDE: è un partner intelligente che legge il tuo codice, monitora l’esecuzione, e ti guida attraverso una struttura logica verso la soluzione. Per sviluppatori .NET e C# che spendono ore in debugging manuale, questa è una feature che ripagherà il tempo investito nel primo giorno di utilizzo.Fonte: Microsoft Visual Studio Blog – Stop Hunting Bugs: Meet the New Visual Studio Debugger Agent]]></description><link>https://forum.androidiani.net/topic/775ea263-1155-4d21-9107-5d2d4474827d/visual-studio-debugger-agent-l-ia-che-caccia-i-bug-per-te</link><guid isPermaLink="true">https://forum.androidiani.net/topic/775ea263-1155-4d21-9107-5d2d4474827d/visual-studio-debugger-agent-l-ia-che-caccia-i-bug-per-te</guid><dc:creator><![CDATA[blog@spcnet.it]]></dc:creator><pubDate>Fri, 17 Apr 2026 08:30:12 GMT</pubDate></item><item><title><![CDATA[LLM Chat in .NET con IChatClient: guida completa all’integrazione]]></title><description><![CDATA[Introduzione: l’astrazione che unifica i servizi LLMIntegrare Large Language Model in .NET ha sempre comportato un problema: ogni servizio (OpenAI, Azure OpenAI, Ollama, Claude) ha il proprio SDK con API diverse. IChatClient della libreria Microsoft.Extensions.AI risolve questo problema fornendo un’astrazione unificata. Scrivi una volta, cambia provider senza modificare la logica applicativa.Cosa è IChatClient?IChatClient è un’interfaccia che rappresenta un client per servizi AI con capacità chat. Astrae i dettagli di comunicazione con LLM remoti o locali, permettendo di:Inviare e ricevere messaggi con contenuto multi-modale (testo, immagini, audio)Ottenere risposte complete o streaming incrementaleMantenere contesto di conversazioneUsare funzionalità avanzate come tool calling e structured outputsL’interfaccia fa parte del pacchetto Microsoft.Extensions.AI.Abstractions, mentre Microsoft.Extensions.AI aggiunge middleware per telemetria, caching, function calling automatico e patterns familiari di dependency injection.Setup iniziale con DIIl punto di partenza è registrare il chat client nel contenitore di dependency injection. Ecco l’approccio canonico:var builder = Host.CreateApplicationBuilder();
builder.Services.AddChatClient(
    new OllamaChatClient(new Uri("http://localhost:11434"), "llama3"));
var app = builder.Build();
var chatClient = app.Services.GetRequiredService&lt;IChatClient&gt;();
In questo esempio, usiamo Ollama con il modello llama3 locale. La bellezza di questa astrazione: la stessa registrazione funziona con OpenAI, Azure OpenAI o qualsiasi provider che implementi IChatClient. Il codice che usa il client rimane invariato.Risposta semplice da un LLMIl caso più basilare: inviare un prompt e ottenere una risposta:var response = await chatClient.GetResponseAsync("What is .NET? Reply in 50 words max.");
Console.WriteLine(response.Message.Text);
Il metodo GetResponseAsync restituisce un oggetto ChatCompletion con il messaggio della risposta. Semplice, sincrono dal punto di vista dello sviluppatore (anche se asincrono sottostante).Streaming per risposte lunghePer applicazioni interattive come chatbot, lo streaming è essenziale. Permette all’utente di vedere il testo apparire gradualmente, come in ChatGPT:var chatResponse = "";
await foreach (var item in chatClient.GetStreamingResponseAsync(chatHistory))
{
    Console.Write(item.Text);
    chatResponse += item.Text;
}
Il metodo GetStreamingResponseAsync ritorna un IAsyncEnumerable&lt;StreamingChatCompletionUpdate&gt;. Ogni item contiene un frammento di testo che puoi visualizzare in tempo reale.Conversazioni multi-turno con cronologiaMantenere una conversazione richiede di raccogliere la storia dei messaggi. Ecco un loop interattivo completo:var chatHistory = new List&lt;ChatMessage&gt;();
while (true)
{
    Console.Write("You: ");
    var userPrompt = Console.ReadLine();
    
    chatHistory.Add(new ChatMessage(ChatRole.User, userPrompt));
    
    var chatResponse = "";
    Console.Write("Assistant: ");
    await foreach (var item in chatClient.GetStreamingResponseAsync(chatHistory))
    {
        Console.Write(item.Text);
        chatResponse += item.Text;
    }
    Console.WriteLine();
    
    chatHistory.Add(new ChatMessage(ChatRole.Assistant, chatResponse));
}
Ogni turno aggiunge alla lista: il user message, poi il response dell’assistant. Al turno successivo, passi l’intera cronologia a GetStreamingResponseAsync. L’LLM usa questo contesto per mantenere coerenza conversazionale.Structured output: JSON tipizzatoSpesso vuoi che l’LLM restituisca dati strutturati (JSON). Puoi chiederlo esplicitamente nel prompt:var prompt = $"""
You will receive an article and extract its metadata.
Respond ONLY with valid JSON following this format without any deviation.

{{
    "title": "...",
    "summary": "...",
    "keywords": ["...", "..."]
}}

Article:
{File.ReadAllText("article.md")}
""";

var response = await chatClient.GetResponseAsync(prompt);
var jsonText = response.Message.Text;
var metadata = JsonSerializer.Deserialize&lt;ArticleMetadata&gt;(jsonText);
L’approccio funziona, ma richiede gestione manuale di parsing e validazione. C’è una soluzione migliore.Deserialization tipizzata con genericsLa libreria Microsoft.Extensions.AI supporta il generic GetResponseAsync&lt;T&gt; che deserializza automaticamente il JSON in una classe C#:public class ArticleMetadata
{
    public string Title { get; set; } = string.Empty;
    public string Summary { get; set; } = string.Empty;
    public string[] Keywords { get; set; } = [];
}

var metadata = await chatClient.GetResponseAsync&lt;ArticleMetadata&gt;(prompt);
Console.WriteLine($"Title: {metadata.Result.Title}");
Console.WriteLine($"Keywords: {string.Join(", ", metadata.Result.Keywords)}");
Questa API offre sicurezza in fase di compilazione e supporto IDE completo per il refactoring. Se cambi la struttura di ArticleMetadata, il compilatore avvisa i punti di utilizzo.Portabilità tra provider: da locale a cloudUna delle promesse di IChatClient è la portabilità. Ecco come implementare una strategia “local in dev, cloud in prod”:// Avvio locale con Ollama
if (app.Environment.IsDevelopment())
{
    builder.Services.AddChatClient(
        new OllamaChatClient(new Uri("http://localhost:11434"), "mistral"));
}
else
{
    // Avvio cloud con Azure OpenAI
    builder.Services.AddChatClient(
        new AzureOpenAIClient(
            new Uri(azureEndpoint),
            new DefaultAzureCredential()).AsChatClient());
}
Il resto dell’applicazione non cambia. Chiede semplicemente IChatClient al DI container e riceve l’implementazione appropriata. Niente hardcoding, niente API specifiche sparse nel codice.Middleware per telemetria e cachingIl pacchetto Microsoft.Extensions.AI fornisce middleware composabile. Uno uso comune è aggiungere OpenTelemetry:var builder = Host.CreateApplicationBuilder();

// Registra OpenTelemetry
builder.Services.AddOpenTelemetry()
    .WithTracing(tracing =&gt; tracing
        .AddAspNetCoreInstrumentation()
        .AddHttpClientInstrumentation());

// Registra il chat client con middleware di telemetria
builder.Services.AddChatClient(baseChatClient)
    .UseOpenTelemetry(builder.Services.BuildServiceProvider()
        .GetRequiredService&lt;ILoggerFactory&gt;());
Con questo setup, ogni chiamata a IChatClient genera automaticamente span OpenTelemetry tracciabili in strumenti come Application Insights o Jaeger. Nessuna strumentazione manuale necessaria.Integrazione con il framework AgentIl framework Agent di Microsoft costruisce sopra IChatClient aggiungendo astrazioni a livello agent: gestione persistente del contesto, tool calling automatico, prompt di sistema, API streaming pulita. Se usi agent, IChatClient rimane il cuore della comunicazione LLM.ConclusioneIChatClient rappresenta una maturazione nell’integrazione LLM in .NET. Invece di accoppiare il codice a provider specifici, definisci un’astrazione e lascia che l’infrastruttura scelga l’implementazione. Lo streaming, la deserialization tipizzata, la composizione di middleware e la portabilità del provider diventano proprietà di prima classe dell’architettura.Per qualsiasi team che integra LLM in .NET 2026, IChatClient è il fondamento su cui costruire. Richiede poca configurazione iniziale e ripaga con flessibilità architetturale a lungo termine.Fonte originale: Microsoft.Extensions.AI libraries – .NET | Microsoft Learn e Working with LLMs in .NET using Microsoft.Extensions.AI]]></description><link>https://forum.androidiani.net/topic/4329c0e7-ff1a-4866-9c16-fabfef7a617b/llm-chat-in-.net-con-ichatclient-guida-completa-all-integrazione</link><guid isPermaLink="true">https://forum.androidiani.net/topic/4329c0e7-ff1a-4866-9c16-fabfef7a617b/llm-chat-in-.net-con-ichatclient-guida-completa-all-integrazione</guid><dc:creator><![CDATA[blog@spcnet.it]]></dc:creator><pubDate>Wed, 15 Apr 2026 14:37:06 GMT</pubDate></item><item><title><![CDATA[Azure MCP Server 2.0: 276 strumenti per integrare Azure negli agenti AI]]></title><description><![CDATA[Il Model Context Protocol (MCP) sta rapidamente diventando lo standard de facto per consentire agli agenti AI di interagire con servizi e strumenti esterni. Microsoft ha appena rilasciato la versione 2.0 stabile di Azure MCP Server, un passo significativo che porta a 276 strumenti distribuiti su 57 servizi Azure direttamente accessibili da qualsiasi agente o IDE compatibile con MCP.Cos’è Azure MCP Server?Azure MCP Server è un’implementazione del Model Context Protocol che funge da ponte tra gli agenti AI e l’ecosistema Azure. Invece di dover scrivere codice di integrazione personalizzato per ogni servizio, un agente AI può semplicemente “scoprire” e utilizzare i tool messi a disposizione dal server MCP, che includono operazioni di provisioning, deployment, monitoraggio e diagnostica su decine di servizi Azure.L’idea centrale è quella di rendere le operazioni su Azure talmente naturali per un agente AI quanto lo è per un programmatore umano navigare sul portale Azure o usare la CLI. La versione 2.0 segna la transizione da una release preview a un prodotto stabile e pronto per l’uso in produzione.Le principali novità della versione 2.0Deployment remoto self-hostedLa novità più significativa di questa release è il supporto al deployment remoto. Nelle versioni precedenti, il server MCP doveva girare localmente sulla macchina dello sviluppatore. Con la 2.0, è possibile distribuire Azure MCP Server come servizio centralizzato, accessibile da tutto il team o dall’intera organizzazione tramite trasporto HTTP.Questo cambia radicalmente le possibilità di adozione enterprise: invece di configurare ogni sviluppatore individualmente, il team di platform engineering può mantenere un’istanza centralizzata con configurazione e governance coerenti. Meno deriva di configurazione, più sicurezza, un unico punto di aggiornamento.Integrazione con Microsoft Foundry e flusso OBOLa versione 2.0 introduce il supporto per il flusso On-Behalf-Of (OBO), noto anche come OpenID Connect delegation. Questo meccanismo consente al server MCP di chiamare le API Azure usando il contesto dell’utente autenticato, mantenendo la separazione delle identità e rispettando i permessi RBAC assegnati al singolo utente.L’integrazione con Microsoft Foundry consente di usare le managed identity direttamente, semplificando la gestione delle credenziali in ambienti cloud-native senza dover gestire segreti esplicitamente.Security hardeningCon il passaggio a stable, Microsoft ha rafforzato significativamente la sicurezza del server:Validazione endpoint più rigorosaProtezioni contro pattern di injection nei tool di queryControlli di isolamento più stringentiQuesti miglioramenti sono essenziali per l’adozione in contesti enterprise dove la superficie di attacco deve essere minimizzata.Supporto sovereign cloudAzure MCP Server 2.0 è ora configurabile per operare su Azure US Government e Azure operated by 21Vianet (il cloud sovrano cinese), ampliando notevolmente la portata per organizzazioni soggette a requisiti di sovranità dei dati.Come installare e usare Azure MCP ServerIl server è disponibile attraverso diversi canali di distribuzione, adatti a scenari diversi:Via IDE extensionLa via più semplice per gli sviluppatori è attraverso le estensioni per i principali IDE:Visual Studio CodeVisual StudioIntelliJ / EclipseCursorUna volta installata l’estensione, il server MCP viene configurato automaticamente e i tool Azure diventano disponibili nell’assistente AI del tuo IDE.Via GitHub Copilot CLI o Claude CodePer chi lavora da terminale, Azure MCP Server si integra nativamente con GitHub Copilot CLI e Claude Code, consentendo di gestire risorse Azure direttamente dalla riga di comando con il supporto dell’AI.Via Docker (deployment self-hosted)Per il deployment remoto centralizzato, Microsoft fornisce un’immagine Docker ufficiale:# Scarica l'immagine Docker docker pull mcr.microsoft.com/azure-mcp-server:latest  # Esegui il server localmente docker run -p 8080:8080 mcr.microsoft.com/azure-mcp-server:latest La documentazione completa per il self-hosting è disponibile su aka.ms/azmcp/self-host.Panoramica degli strumenti disponibiliCon 276 tool distribuiti su 57 servizi Azure, la copertura è notevolmente ampia. Gli strumenti coprono l’intero ciclo di vita delle risorse cloud:Provisioning e deployment: creare e configurare risorse Azure (VM, App Service, AKS, ecc.)Monitoraggio e diagnostica: interrogare Azure Monitor, Log Analytics, Application InsightsGestione identità: interagire con Microsoft Entra ID, gestire service principal e managed identityStorage e database: operazioni su Blob Storage, Cosmos DB, Azure SQLNetworking: configurazione di VNet, DNS, load balancerServizi AI: integrazione con Azure OpenAI, AI Foundry, Cognitive ServicesImplicazioni per il workflow degli sviluppatoriL’arrivo di Azure MCP Server 2.0 stabile ha implicazioni concrete per i team di sviluppo che usano Azure:Meno context switching: gli sviluppatori possono interrogare lo stato dei loro servizi Azure, diagnosticare problemi e persino deployare aggiornamenti senza uscire dall’IDE o passare al portale Azure.Automazione conversazionale: invece di ricordare i comandi esatti della Azure CLI, è possibile descrivere in linguaggio naturale l’operazione desiderata e lasciare che l’agente AI formuli la chiamata corretta al tool MCP.Governance centralizzata: con il deployment self-hosted, le organizzazioni possono controllare centralmente quali tool sono disponibili, chi può usarli e in che contesto, mantenendo audit trail completi.ConclusioneAzure MCP Server 2.0 rappresenta un passo maturo verso l’integrazione dell’AI nei workflow operativi su cloud. Il supporto al deployment remoto e al flusso OBO erano i due tasselli mancanti per l’adozione enterprise, e la loro disponibilità in una release stabile apre scenari concreti di adozione su larga scala.Per i team che già usano GitHub Copilot o altri agenti AI nel loro IDE, la barriera di ingresso è minima: basta installare l’estensione e il ricco catalogo di tool Azure diventa immediatamente disponibile. Per chi vuole andare oltre, il deployment self-hosted offre la flessibilità necessaria per integrarlo nei flussi platform engineering più sofisticati.Fonte originale: Announcing Azure MCP Server 2.0 Stable Release — Sandeep Sen, Microsoft Azure SDK Blog]]></description><link>https://forum.androidiani.net/topic/c24484cf-2c89-4f81-8051-78c0d6fa9129/azure-mcp-server-2.0-276-strumenti-per-integrare-azure-negli-agenti-ai</link><guid isPermaLink="true">https://forum.androidiani.net/topic/c24484cf-2c89-4f81-8051-78c0d6fa9129/azure-mcp-server-2.0-276-strumenti-per-integrare-azure-negli-agenti-ai</guid><dc:creator><![CDATA[blog@spcnet.it]]></dc:creator><pubDate>Tue, 14 Apr 2026 12:10:20 GMT</pubDate></item><item><title><![CDATA[Visual Studio Code 1.116: tutte le novità di aprile 2026]]></title><description><![CDATA[Microsoft ha rilasciato Visual Studio Code 1.116, l’aggiornamento di aprile 2026, che porta con sé una serie di miglioramenti significativi focalizzati sull’Agent Mode, sull’integrazione con Copilot e sulla produttività dello sviluppatore. In questo articolo analizziamo nel dettaglio le novità più rilevanti per chi usa VS Code come ambiente di sviluppo quotidiano.Agent Mode e Copilot: le novità principaliIl grosso degli investimenti di questa release riguarda ancora una volta l’ecosistema degli agenti AI integrati nell’editor. Microsoft continua a spingere forte su questo fronte, e i risultati iniziano a farsi sentire in termini di produttività concreta.Storico sessioni agenti nel Debug PanelUna delle funzionalità più attese arriva finalmente: è ora possibile sfogliare lo storico delle sessioni degli agenti direttamente dall’Agent Debug Panel. Questo significa che non si perde traccia delle conversazioni precedenti con gli agenti, e si può tornare a consultare cosa un agente ha fatto in sessioni passate — utile soprattutto in workflow complessi dove si delega a Copilot l’esecuzione di task multi-step.Generazione automatica dei nomi di branchIl Copilot CLI agent può ora generare automaticamente i nomi dei branch Git a partire dal prompt dell’utente. Invece di dover pensare a un nome descrittivo, è sufficiente descrivere cosa si sta facendo e l’agente proporrà un nome di branch appropriato e consistente con le convenzioni del progetto. Una piccola cosa, ma che in team grandi fa davvero la differenza.Controllo del reasoning effortVS Code 1.116 introduce il controllo della profondità di ragionamento (reasoning effort) per le sessioni Copilot CLI. Questo permette di bilanciare velocità e qualità delle risposte: per task semplici si può usare un effort minore (risposte più rapide), mentre per problemi complessi si può alzare il livello per ottenere analisi più approfondite. Funzionalità particolarmente utile per chi lavora con modelli che supportano ragionamento esteso come o3 o Claude 3.7.Strumenti terminale migliorati per gli agentiGli strumenti terminale degli agenti ricevono un aggiornamento importante: ora funzionano con i terminali in foreground. Questo vuol dire che send_to_terminal e get_terminal_output possono interagire con qualsiasi terminale visibile nell’interfaccia, non solo con quelli creati dall’agente stesso.È stato aggiunto anche un pulsante Focus Terminal nel carosello delle domande dell’agente: quando un agente ha bisogno di input diretto (ad esempio una password o una conferma interattiva), l’utente può focalizzare il terminale con un click senza dover navigare manualmente nell’interfaccia.Viene introdotto anche lo stato NeedsInput nel protocollo Agent Host: un nuovo status che segnala quando una sessione agente è in attesa di input utente. Questo permette alle estensioni e agli strumenti di terze parti di rilevare questa condizione e reagire di conseguenza — ad esempio mostrando notifiche o sbloccando blocchi di automazione.Miglioramenti all’editorBreakpoint widget tramite Alt+clickUna piccola ma benvenuta aggiunta: è ora possibile aprire il widget breakpoint con Alt+click direttamente nella gutter (la barra laterale con i numeri di riga) dell’editor. In precedenza era necessario usare click destro e navigare nel menu contestuale. Questo accelera il workflow di debugging, specialmente quando si devono impostare breakpoint condizionali o con log point.CSS @import con risoluzione node_modulesPer chi lavora con CSS e preprocessori, arriva il supporto per la risoluzione dei path node_modules negli import CSS. Ora è possibile fare Ctrl+Click su un import del tipo @import '~bootstrap/scss/bootstrap' e VS Code risolverà correttamente il percorso al modulo installato in node_modules. Funzionalità attesa da tempo, specialmente da chi usa SCSS in progetti con molte dipendenze npm.Diff editor nei contesti agenticI diff editor usati dagli agenti ora mostrano un pulsante “Open File” che permette di aprire direttamente il file originale dal diff. Una piccola friction in meno nel workflow di review delle modifiche proposte da Copilot.TextMate grammars: nuovo token type “regex”Per chi sviluppa estensioni con grammar TextMate, è stato aggiunto “regex” come token type supportato. Utile per definire regole di colorazione sintattica per espressioni regolari in linguaggi che le supportano natively.AccessibilitàVS Code 1.116 porta diversi miglioramenti per l’accessibilità, in particolare per gli utenti che usano screen reader:Dialog di aiuto per l’input chat degli agenti: accessibile con ⌥F1 (macOS) o Alt+F1 (Windows/Linux), mostra comandi e scorciatoie disponibili nell’input chat degli agenti con istruzioni specifiche per gli screen reader.Navigazione risultati di ricerca: nuove istruzioni per navigare i risultati di ricerca con Ctrl+Down Arrow usando screen reader.Scorciatoie dedicate nell’app Agents: nuovi shortcut da tastiera per navigare tra la visualizzazione Changes, l’albero dei file nella Changes view e la Chat Customizations view — permettendo la navigazione full-keyboard senza toccare il mouse.API per sviluppatori di estensioniChi sviluppa estensioni per VS Code trova in questa release alcune API nuove interessanti:Diff cumulativi per sessioneLe API del protocollo Agent Host espongono ora i diff cumulativi per sessione: dopo ogni turno dell’agente sono disponibili statistiche aggregate sulle modifiche ai file effettuate durante l’intera sessione. Utile per costruire strumenti di monitoring o reporting sull’attività degli agenti.Completamenti contestuali nell’app AgentsI completamenti attivati con il carattere # nell’app Agents ora supportano il context file scoping al workspace selezionato. Questo significa che i suggerimenti di completamento per i file sono limitati al workspace corrente, evitando confusione in setup multi-root.Scorciatoia per il browser integratoÈ stata aggiunta una scorciatoia globale per attivare/disattivare il browser integrato — particolarmente utile per chi fa sviluppo web e alterna frequentemente tra codice e preview.Come aggiornareVS Code si aggiorna automaticamente, ma se vuoi forzare l’aggiornamento puoi usare il menu Help → Check for Updates (Windows/Linux) o Code → Check for Updates (macOS). In alternativa, puoi scaricare l’installer direttamente da code.visualstudio.com.Per consultare le release notes complete direttamente in VS Code, usa il comando Show Release Notes dalla Command Palette (Ctrl+Shift+P / Cmd+Shift+P).ConclusioneVS Code 1.116 consolida ulteriormente l’ecosistema agentic dell’editor, con miglioramenti che rendono gli agenti AI più controllabili, più trasparenti e più integrati nel workflow quotidiano dello sviluppatore. Le novità sull’accessibilità sono benvenute, e le piccole migliorie all’editor (breakpoint widget, CSS imports) dimostrano che Microsoft non trascura nemmeno le funzionalità “classiche” in favore dell’hype sull’AI.Il trend è chiaro: VS Code sta diventando sempre più un ambiente agentic-first, dove gli strumenti AI non sono plugin aggiuntivi ma cittadini di prima classe dell’editor. Per chi lavora già con Copilot in modalità agente, questo aggiornamento è decisamente consigliato.Fonte: Visual Studio Code 1.116 Release Notes]]></description><link>https://forum.androidiani.net/topic/b031dc55-0328-42a3-b29a-5ca1697383da/visual-studio-code-1.116-tutte-le-novità-di-aprile-2026</link><guid isPermaLink="true">https://forum.androidiani.net/topic/b031dc55-0328-42a3-b29a-5ca1697383da/visual-studio-code-1.116-tutte-le-novità-di-aprile-2026</guid><dc:creator><![CDATA[blog@spcnet.it]]></dc:creator><pubDate>Mon, 13 Apr 2026 09:09:55 GMT</pubDate></item></channel></rss>