İçeriğe atla
Şimdi yükleniyor
  • Anasayfa
  • Azure & Bulut
    • Microsoft Azure
    • Bulut Altyapı
    • Microsoft 365
  • Yazılım
    • DevOps
    • Geliştirici Araçları
    • Konteyner & K8s
  • AI & Veri
    • Yapay Zeka
    • Veri & Analitik
  • Güvenlik
    • Güvenlik & Kimlik
    • Kurumsal Teknoloji
  • Hakkımda
    • İletişim
×
  • Bulut Altyapı
  • DevOps
  • Geliştirici Araçları
  • Güvenlik & Kimlik
  • Konteyner & Kubernetes
  • Kurumsal Teknoloji
  • Microsoft 365
  • Microsoft Azure
  • Veri & Analitik
  • Yapay Zeka
  • Başlangıç
  • Yapay Zeka
  • Foundry Local 1.1: Mikrofondan Canlı Transkripsiyon Geldi
Bulut Altyapı Geliştirici Araçları Yapay Zeka canlı transkripsiyon, embeddings, Foundry Local, lokalde yapay zeka, mikrofon transkripsiyonu, Responses API, veri egemenliği A.KILIÇ 12/05/2026 0 Yorumlar

Foundry Local 1.1: Mikrofondan Canlı Transkripsiyon Geldi

Foundry Local 1.1: Mikrofondan Canlı Transkripsiyon Geldi
Ana Sayfa › Bulut Altyapı › Foundry Local 1.1: Mikrofondan Canlı Transkripsiyon Geldi
📑 İçindekiler
  1. Foundry Local Aslında Ne İşe Yarıyor?
  2. Canlı Transkripsiyon API'si: En Heyecan Verici Kısım
  3. Session-Based Pattern Nasıl Çalışıyor?
  4. Türkçe Desteği Meselesi
  5. Text Embeddings: RAG İçin Lokal Çözüm
  6. Pratik Senaryo: Hukuk Firmasında RAG
  7. Responses API: Agentic Senaryolar İçin
  8. Paketleme ve Performans İyileştirmeleri
  9. Sıkça Sorulan Sorular
  10. Foundry Local Windows dışında da çalışıyor mu?
  11. Foundry Local kullanırken Microsoft'a veri gidiyor mu?
  12. Hangi modeller live transcription destekliyor?
  13. Foundry Local ile Ollama arasındaki fark nedir?
  14. 1.0'dan 1.1 sürümüne geçiş sorunsuz mu?
  15. Kaynaklar ve İleri Okuma
⏱️ 6 dk okuma📅 12 Mayıs 2026👁️ görüntülenme

Bulutsuz AI meselesi son bir yılda gündemden hiç düşmedi. Veri egemenliği, gecikme, token başına faturalar… derken Microsoft, Foundry Local’in 1.1 sürümünü sessiz sedasız yayınladı. Ben de hafta sonu kurcalayınca fark ettim ki — bu sürüm aslında göründüğünden çok daha önemli.

İlginç olan şu ki, Açık konuşayım: 1.0 çıktığında biraz mesafeli yaklaşmıştım. “Lokalde model çalıştırmak güzel de, gerçek senaryolarda nereye oturacak?” diye düşünüyordum. Cevap 1.1 ile gelmiş gibi dürüyor. Üç kilit özellik eklenmiş: canlı transkripsiyon, embeddings ve Responses API. Üçü de pratikte işimize yarayan şeyler. Hani sırf “biz de yaptık” demek için eklenmiş feature’lar değil.

Şimdi gelelim detaylara — ama önce bir parantez açayım.

Foundry Local Aslında Ne İşe Yarıyor?

Kısaca söyleyeyim: Microsoft’un cross-platform yerel AI çözümü bu. Yanı modeli kullanıcının makinesinde, sizin sunucunuzda, edge cihazda — kısacası epey farklı yerde koşturabiliyorsunuz. Bulut bağımlılığı yok, ağ gecikmesi yok, token başına ücret yok; kulağa rahat geliyor, çünkü gerçekten öyle bir tarafı var.

Kulağa süper geliyor değil mi? Geliyor tabiî. Ama gerçek hayatta birkaç pürüz var, onlara da geleceğim; önce yeniliklere bakalım, sonra işin can sıkıcı tarafını da masaya koyarız.

“Foundry Local 1.1, lokalde AI çalıştırmayı ‘demo’ olmaktan çıkarıp ‘production’ senaryolarına yaklaştıran ilk sürüm. Hâlâ eksikler var ama yön doğru.”

Canlı Transkripsiyon API’si: En Heyecan Verici Kısım

Garip gelecek ama, Bu özelliği görünce ilk aklıma gelen şey, geçen yıl bir sigorta şirketinde yaptığımız çağrı merkezî projesi öldü. Müşteri real-time transkripsiyon istiyordu ama veriler dışarı çıkamıyordu; regülasyon yüzünden ipler biraz sıkıydı açıkçası. Biz de Azure Speech yerine on-premise bir yol ararken epey uğraşmıştık.

Eh, Şimdi Foundry Local ile aynı işi neredeyse out-of-the-box yapabiliyorsunuz. Mikrofondan ham PCM ses verisi gönderiyorsunuz, transkripsiyon sonuçları stream olarak geliyor; üstüne bir de is_final markerları var — yanı interim sonuçlarla finalize edilmiş sonuçları ayırabiliyorsunuz. Bu küçük detay var ya, UX tarafında baya iş görüyor.

Session-Based Pattern Nasıl Çalışıyor?

API tasarımı temiz sayılır. Akış kabaca şöyle gidiyor: katalogdan bir streaming speech modeli seçiyorsunuz (mesela nemotron-speech-streaming-en-0.6b), sonra sample rate. Kanal sayısı gibi ayarlarla live transcription session açıyorsunuz; ardından session’ı başlatıp ses verisini yolluyor ve async stream üzerinden sonucu topluyorsunuz.

  1. Katalogdan bir streaming speech modeli yüklüyorsunuz (örneğin nemotron-speech-streaming-en-0.6b)
  2. Bir live transcription session oluşturuyorsunuz — sample rate, kanal sayısı, dil gibi ayarlarla
  3. Session’ı başlatıp ses verisi göndermeye başlıyorsunuz
  4. Async stream üzerinden sonuçları tüketiyorsunuz

Python tarafından bakınca kod şöyle bir şey:

import threading
import pyaudio
from foundry_local_sdk import Configuration, FoundryLocalManager
config = Configuration(app_name="meeting_transcriber")
FoundryLocalManager.initialize(config)
manager = FoundryLocalManager.instance
model = manager.catalog.get_model("nemotron-speech-streaming-en-0.6b")
if not model.is_cached:
model.download(lambda p: print(f"İndiriliyor: {p:.1f}%"))
session = model.create_live_transcription_session(
sample_rate=16000,
channels=1,
language="en"
)
# Async stream'i ayrı bir thread'de dinle
def consume_results():
for result in session.results():
marker = "[FINAL]" if result.is_final else "[...]"
print(f"{marker} {result.text}")
threading.Thread(target=consume_results, daemon=True).start()
session.start()

Python dışında JavaScript, C#. Rust binding’leri de var; SDK API’si dört dilde de tutarlı tutulmuş olması hoşuma gitti açıkçası. Bir ekipte üç farklı dil kullanılıyorsa kimse yeniden keşif yapmak zorunda kalmıyor, bu da gereksiz sürtünmeyi azaltıyor (en azından benim deneyimim böyle)

Türkçe Desteği Meselesi

Burası biraz tatsız ama söylemem lazım: Şu an katalogdaki streaming speech modelleri ağırlıklı İngilizce geliyor. Türkçe için doğrudan bir streaming model henüz yok — en azından ben bulamadım; Whisper-large modellerini Foundry üzerinde batch olarak çalıştırabiliyorsunuz. Gerçek-zamanlı Türkçe transkripsiyon için bekleyeceğiz gibi dürüyor.

Ve işler burada ilginçleşiyor.

Hani, Eğer bugün bir banka projesinde Türkçe çağrı transkripsiyonu yapmak zorunda kalsaydım yine Azure AI Speech’e dönerdim; en azından Foundry Local tarafında Türkçe streaming modeli gelene kadar durum bu olurdu sanırım. Microsoft tarafına da feedback bıraktım — bakalım ne çıkacak. Daha fazla bilgi için Azure’ın Avrupa Yatırımları: Egemen Bulut ve AI Genişlemesi yazımıza bakabilirsiniz. Kubernetes v1.36: Volume Group Snapshots Sonunda GA Oldu yazımızda bu konuya da değinmiştik.

Text Embeddings: RAG İçin Lokal Çözüm

Bence en kritik ekleme embeddings desteği olmuş olabilir; çünkü kurumsal müşterilerin büyük kısmı şu anda RAG peşinde koşuyor. Hemen herkes aynı soruyu dönüp dolaşıp soruyor: “Verimi dışarı çıkarmadan bunu yapabilir mıyım?” Peki neden bu kadar takılıyorlar? Çünkü veri hassasiyeti deyince konu bir anda teknik olmaktan çıkıp hukuk ve güvenlik tarafına kayıyor.

Cevap artık netleşiyor gibi: Evet, yapabilirsiniz! Foundry Local üzerinden lokalde embedding üretip lokal bir vector store’a (Qdrant, Chroma ya da PostgreSQL pgvector) basabiliyorsunuz; veri makineden çıkmıyor. Bu kısım özellikle iç rahatlatıyor.

Bunu daha derin anlattığım Azure SQL’de AI_GENERATE_EMBEDDINGS GA: T-SQL ile Vektör Devri yazısında Azure tarafını işlemiştim zaten; Foundry Local işe bunun on-premise karşılığı gibi düşünebilirsiniz ama burada kontrol sizde biraz daha fazla oluyor. mssql-python’a Apache Arrow Desteği: SQL Server için Yeni Devir yazımızda bu konuya da değinmiştik.

Pratik Senaryo: Hukuk Firmasında RAG

Tam burada aklıma geçen ay yaptığımız POC geldi; bir hukuk bürosu için çalıştık. Içeride yaklaşık 40 bin içtihat dökümanı vardı, hiçbiri buluta gidemiyordu çünkü müşterinin çizgisi netti (ve açık konuşayım haklıydılar). Avukatlar doğal dille soru sorup ilgili kararları bulmak istiyordu; yanı klasik arama kutusu yetmiyor artık.

  • Dökümanlar chunk’lara bölündü (yaklaşık 800 token’lık parçalar)
  • Foundry Local’in embedding modeli ile her chunk vektörize edildi
  • Vektörler Qdrant’a yazıldı — hepsi müşterinin kendi sunucusunda
  • Sorgu geldiğinde soru da aynı modelle embed ediliyor ve semantic search yapılıyor
  • Sadece ilgili chunk’lar küçük bir lokal LLM’e context olarak veriliyor

Sonuç? Aylık fatura sıfır TL token maliyeti öldü; sadece donanım amortismanı kaldı ki o da başka hesap tabiî. Müşteri memnun kaldı mı? Kaldı diyebilirim ben de fena şaşırmadım açıkçası.

Responses API: Agentic Senaryolar İçin

Laf arasında söyleyeyim: 1.1’in üçüncü büyük yeniliği Responses API desteği olmuş durumda. Bu kısım bana biraz ham geliyor şu an — dürüst olayım. Yine de yapılabilen şeyler boş değil; tool calling var, multimodal vision-language input var, structured agentic interactions var… yanı lokalde küçük ajanlar koşturabiliyorsunuz işte. Bu konuyla ilgili Red Hat Summit 2026: Azure OpenShift ile AI Üretime Geçti yazımıza da göz atmanızı tavsiye ederim.

Ama gerçekçi olalım şimdi. Lokalde 7B-13B parametrelik bir modelle GPT-4 seviyesinde tool-calling beklemeyin; orada beklentiyi fazla şişirmek kafa karıştırır yalnızca. Pratikte nerede işe yarıyor derseniz dar kapsamlı ve deterministik ajanlarda baya idare ediyor; mesela IT helpdesk’te “kullanıcı şunu istedi, şu API’yi çağır ve sonucu özetle” tarzı görevlerde gayet kullanılabilir dürüyor.

  • — ciddi fark yaratıyor
  • !

Paketleme ve Performans İyileştirmeleri

💡: Türkiye’deki KOBI ölçeğinde ben genellikle hibrit yaklaşımı öneriyorum.
Embeddings ve sık kullanılan ufak modeller Foundry Local’de kalıyor.
Ağır LLM ihtiyaçları için Azure OpenAI kullanılıyor.
Böylece veri hassas kısımlar lokalde dürüyor,
kompleks reasoning için cloud’a çıkılıyor.
Açıkçası denge fena olmuyor.

Sıkça Sorulan Sorular

Foundry Local Windows dışında da çalışıyor mu?

Tuhaf ama, Evet, cross-platform yanı farklı sistemlerde çalışıyor. Windows, macOS ve Linux destekleniyor. Apple Silicon (M1/M2/M3) üzerinde Metal Performance Shaders ile, NVIDIA GPU’larda CUDA ile, ARM cihazlarda işe NPU desteğiyle çalışıyor. Ben mesela MacBook Pro M2’de geliştirme yaparken aslında yeterli performansı alıyorum, çoğu zaman sıkıntı olmuyor. Cosmos Conf 2026: AI Çağında Veritabanı Mimarisi Nereye Gidiyor? yazımızda bu konuya da değinmiştik.

Şimdi gelelim işin can alıcı noktasına.

Foundry Local kullanırken Microsoft’a veri gidiyor mu?

Hayır, inference tamamen lokalde kalıyor. Yanı dışarıya bir şey gitmiyor. Sadece model indirirken Microsoft’un katalog endpoint’lerine bağlantı kuruluyor, o kadar. Modeli bir kez indirdin mi, tamamen offline çalıştırabiliyorsun. Hatta air-gapped ortamlar için model dosyalarını elle transfer etmek de mümkün (en azından benim deneyimim böyle)

Hangi modeller live transcription destekliyor?

Şu an katalogda Nemotron-speech-streaming serisi var, özellikle nemotron-speech-streaming-en-0.6b. Ağırlıklı olarak İngilizce. Whisper türevleri de mevcut ama onlar batch mod için, yanı gerçek zamanlı streaming için seçenek aslında oldukça sınırlı (evet, doğru duydunuz). Sız ne dersiniz? Çoklu dil desteği için Microsoft’un yol haritasını takip etmek gerekiyor, bence bu taraf biraz zaman alacak.

Foundry Local ile Ollama arasındaki fark nedir?

Ollama daha geliştirici odaklı, hızlı bir şeyler denemek için süper. Foundry Local işe enterprise senaryolar için tasarlanmış: katalog yönetimi, SDK’lar (Python/JS/C#/Rust), Responses API gibi daha yapısal bir yaklaşım var. Bir de Microsoft ekosistemiyle entegrasyon, hani Azure AI Foundry. Agent Framework gibi şeyler, Ollama’da bu kadar net değil. Açıkçası ben production senaryoları için Foundry Local, hızlı prototipler için Ollama tercih ediyorum.

1.0’dan 1.1 sürümüne geçiş sorunsuz mu?

JavaScript SDK’da koffi FFI’dan native addon’a geçiş yapıldığı için bazı edge case’lerde build sorunlarıyla karşılaşabilirsiniz. C# tarafında işe lower framework targeting nedeniyle çoğu projede sorun çıkmıyor. Tecrübeme göre birkaç projemi upgrade ederken sadece WebGPU plugin’ını explicit olarak yüklemek dışında pek bir sıkıntı yaşamadım. Mantıklı değil mi? Yine de production öncesi mutlaka staging’de test edin, bence bu adımı atlamayın.

Hmm, bunu nasıl anlatsamdı…

Kaynaklar ve İleri Okuma

Bakın, Foundry Local 1.1.0 Release Announcement (Microsoft DevBlogs)

Yanı, Foundry Local Resmî Dokümantasyon

Foundry Local SDK Örnekleri ve Source Code (GitHub)

Aşkın KILIÇ
Aşkın KILIÇYazar

20+ yıl deneyimli Azure Solutions Architect. Microsoft sertifikalı bulut mimari ve DevOps danışmanı. Azure, yapay zekâ ve bulut teknolojileri üzerine Türkçe teknik içerikler üretiyor.

AZ-305AZ-104AZ-500AZ-400DP-203AI-102

İlgili Yazılar

Azure Developer CLI Sonunda Olmuş: Uzantılar, Foundry ve Pipeline Devrimi
Azure Developer CLI Sonunda Olmuş: Uzantılar, Foundry ve Pipeline Devrimi16 Mar 2026
GitHub Credential Revocation API ile Sızıntılara Anında Fren: Yeni Destekler ve Gerçek Hayat Senaryoları
GitHub Credential Revocation API ile Sızıntılara Anında Fren: Yeni Destekler ve Gerçek Hayat Senaryoları28 Mar 2026
Terminalde AI Ajanlarını Koddan Teste Taşımak: azd ile Gerçekten Yerel Deneyim
Terminalde AI Ajanlarını Koddan Teste Taşımak: azd ile Gerçekten Yerel Deneyim18 Mar 2026
Axios npm Saldırısı: Azure Pipelines'ta Ne Yapmalı?
Axios npm Saldırısı: Azure Pipelines'ta Ne Yapmalı?24 Nis 2026

Bu içerik işinize yaradı mı?

Benzer içerikleri kaçırmamak için beni sosyal medyada takip edin.

X / Twitter LinkedIn YouTube GitHub

Haftalık Bülten

Her pazar özenle seçilmiş teknoloji yazıları doğrudan e-postanıza gelsin.

Etiket canlı transkripsiyon embeddings Foundry Local lokalde yapay zeka mikrofon transkripsiyonu Responses API veri egemenliği

Yorum gönder Yanıtı iptal et

A.KILIÇ

Microsoft Azure Çözüm Uzmanı | Bulut Bilişim, Yapay Zekâ, DevOps ve Kurumsal Güvenlik alanlarında 15+ yıl deneyim. Azure, Kubernetes, AI/ML ve modern altyapı mimarileri üzerine yazılar yazıyorum.

view all posts
Önceki yazı

Cosmos Conf 2026: AI Çağında Veritabanı Mimarisi Nereye Gidiyor?

İlginizi Çekebilir

Cosmos Conf 2026: AI Çağında Veritabanı Mimarisi Nereye Gidiyor?
A.KILIÇ 0

Cosmos Conf 2026: AI Çağında Veritabanı Mimarisi Nereye Gidiyor?

12/05/2026
Red Hat Summit 2026: Azure OpenShift ile AI Üretime Geçti
A.KILIÇ 0

Red Hat Summit 2026: Azure OpenShift ile AI Üretime Geçti

12/05/2026
mssql-python'a Apache Arrow Desteği: SQL Server için Yeni Devir
A.KILIÇ 0

mssql-python’a Apache Arrow Desteği: SQL Server için Yeni Devir

12/05/2026

Yazı Ara

Takip Edin

  • Takipçi
  • Takipçi
  • Takipçi
  • Abone
  • Takipçi
  • Foundry Local 1.1: Mikrofondan Canlı Transkripsiyon Geldi
    12/05/2026 Foundry Local 1.1: Mikrofondan Canlı Transkripsiyon Geldi
  • Cosmos Conf 2026: AI Çağında Veritabanı Mimarisi Nereye Gidiyor?
    12/05/2026 Cosmos Conf 2026: AI Çağında Veritabanı Mimarisi Nereye Gidiyor?
  • Red Hat Summit 2026: Azure OpenShift ile AI Üretime Geçti
    12/05/2026 Red Hat Summit 2026: Azure OpenShift ile AI Üretime Geçti
  • mssql-python'a Apache Arrow Desteği: SQL Server için Yeni Devir
    12/05/2026 mssql-python’a Apache Arrow Desteği: SQL Server için Yeni Devir
  • Azure'ın Avrupa Yatırımları: Egemen Bulut ve AI Genişlemesi
    11/05/2026 Azure’ın Avrupa Yatırımları: Egemen Bulut ve AI Genişlemesi
  • 2026-03-10_15-35-23
    10/03/2026 Microsoft 365 E7: Yapay Zeka ve Güvenlik Bir Arada
  • Azure H200 GPU’larla Gizli Bulutlarda Yapay Zekâ: Gerçekten Neler Değişiyor?
    22/03/2026 Azure H200 GPU’larla Gizli Bulutlarda Yapay Zekâ: Gerçekten Neler Değişiyor?
  • Pantone ve Azure: Agentic AI ile Renk Zekası
    09/03/2026 Pantone ve Azure: Agentic AI ile Renk Zekası
  • Terminalde AI Ajanlarını Koddan Teste Taşımak: azd ile Gerçekten Yerel Deneyim
    18/03/2026 Terminalde AI Ajanlarını Koddan Teste Taşımak: azd ile Gerçekten Yerel Deneyim
  • Azure Boards: Ek Alan Filtreleriyle Etkili Yönetim
    09/03/2026 Azure Boards: Ek Alan Filtreleriyle Etkili Yönetim
  • GitHub Bildirimlerinde Sıralama Geldi: Küçük Detay mı?
    09/04/2026 GitHub Bildirimlerinde Sıralama Geldi: Küçük Detay mı?
  • vcpkg'de Paralel Kurulum ve Güvenlik Yaması: Neler Değişti?
    06/04/2026 vcpkg’de Paralel Kurulum ve Güvenlik Yaması: Neler Değişti?
  • MCP Apps’i Kolaylaştıran Fluent API: Sahada Ne Değişiyor?
    08/04/2026 MCP Apps’i Kolaylaştıran Fluent API: Sahada Ne Değişiyor?
  • Yapay Zekâ Çağında Sanayi Politikası: Asıl Mesela Ne?
    06/04/2026 Yapay Zekâ Çağında Sanayi Politikası: Asıl Mesela Ne?
  • Microsoft Foundry Mart 2026: Sahadan İlk İzlenimler
    10/04/2026 Microsoft Foundry Mart 2026: Sahadan İlk İzlenimler

SİZİN İÇİN DERLEDİK

Foundry Local 1.1: Mikrofondan Canlı Transkripsiyon Geldi
Bulut Altyapı Geliştirici Araçları Yapay Zeka

Foundry Local 1.1: Mikrofondan Canlı Transkripsiyon Geldi

12/05/2026 A.KILIÇ
Cosmos Conf 2026: AI Çağında Veritabanı Mimarisi Nereye Gidiyor?
Bulut Altyapı Veri & Analitik Yapay Zeka

Cosmos Conf 2026: AI Çağında Veritabanı Mimarisi Nereye Gidiyor?

12/05/2026 A.KILIÇ
Red Hat Summit 2026: Azure OpenShift ile AI Üretime Geçti
Bulut Altyapı Güvenlik & Kimlik Konteyner & Kubernetes Yapay Zeka

Red Hat Summit 2026: Azure OpenShift ile AI Üretime Geçti

12/05/2026 A.KILIÇ
mssql-python'a Apache Arrow Desteği: SQL Server için Yeni Devir
Bulut Altyapı Geliştirici Araçları Veri & Analitik

mssql-python’a Apache Arrow Desteği: SQL Server için Yeni Devir

12/05/2026 A.KILIÇ
Azure'ın Avrupa Yatırımları: Egemen Bulut ve AI Genişlemesi
Bulut Altyapı Güvenlik & Kimlik Microsoft Azure Yapay Zeka

Azure’ın Avrupa Yatırımları: Egemen Bulut ve AI Genişlemesi

11/05/2026 A.KILIÇ
Kubernetes v1.36: Volume Group Snapshots Sonunda GA Oldu
DevOps Konteyner & Kubernetes

Kubernetes v1.36: Volume Group Snapshots Sonunda GA Oldu

11/05/2026 A.KILIÇ
Microsoft Agent Framework v1.0: Lokal'den Prod'a Geçiş
DevOps Microsoft Azure Yapay Zeka

Microsoft Agent Framework v1.0: Lokal’den Prod’a Geçiş

11/05/2026 A.KILIÇ
Least Privilege Ajanlar: Güvenliği Baştan Kurmanın Yeni Yolu
Bulut Altyapı Güvenlik & Kimlik Yapay Zeka

Least Privilege Ajanlar: Güvenliği Baştan Kurmanın Yeni Yolu

11/05/2026 A.KILIÇ
Foundry Toolboxes: Ajan Araçlarını Toplamak Neden Şart Oldu?
Bulut Altyapı DevOps Güvenlik & Kimlik

Foundry Toolboxes: Ajan Araçlarını Toplamak Neden Şart Oldu?

10/05/2026 A.KILIÇ
C++ Kodunu CLI’da Anlamak: Copilot’a Gelen Akıllı Katman
Bulut Altyapı Geliştirici Araçları Yapay Zeka

C++ Kodunu CLI’da Anlamak: Copilot’a Gelen Akıllı Katman

10/05/2026 A.KILIÇ
SkiaSharp 4.0 Preview 1: 10 Yıl Sonra Büyük Atılım Geldi
Bulut Altyapı Geliştirici Araçları

SkiaSharp 4.0 Preview 1: 10 Yıl Sonra Büyük Atılım Geldi

10/05/2026 A.KILIÇ
Foundry Hosted Agents ile MAF’ı Prod’a Taşımak: Benim Notlarım
DevOps Geliştirici Araçları Microsoft Azure

Foundry Hosted Agents ile MAF’ı Prod’a Taşımak: Benim Notlarım

10/05/2026 A.KILIÇ

Hakkımda

Aşkın KILIÇ

Microsoft Azure Çözüm Uzmanı. Bulut bilişim, yapay zekâ, DevOps ve kurumsal güvenlik üzerine yazılar yazıyorum.

Devamını Oku →

Kategoriler

  • Bulut Altyapı
  • DevOps
  • Geliştirici Araçları
  • Güvenlik & Kimlik
  • Konteyner & Kubernetes
  • Kurumsal Teknoloji
  • Microsoft 365
  • Microsoft Azure
  • Veri & Analitik
  • Yapay Zeka

Popüler Etiketler

.NET AI agent AI ajanları Azure Azure Boards Azure Developer CLI Azure DevOps azure mcp server Azure OpenAI azure sdk Azure SQL belge işleme bulut bilişim bulut güvenliği CI/CD copilot Cosmos DB DevOps DevSecOps geliştirici araçları geliştirici verimliliği GitHub GitHub Actions GitHub Copilot güvenlik Kimlik Doğrulama Kimlik Yönetimi Kubernetes kurumsal güvenlik kurumsal yapay zeka maliyet optimizasyonu Microsoft Azure Microsoft Foundry OpenAI otomasyon Pull Request Python SEO uyumlu veri güvenliği verimlilik veri yönetimi VS Code yapay zeka yapay zeka ajanları Yazılım geliştirme
  • Gizlilik Politikası
  • Çerez Politikası
  • Kullanım Koşulları
  • Hakkımda
  • İletişim

© 2026 Aşkın KILIÇ | Tüm hakları saklıdır. | Powered By SpiceThemes

🍪 Bu sitede içerik deneyiminizi iyileştirmek için çerezler kullanılmaktadır. Siteyi kullanmaya devam ederek KVKK ve Çerez Politikamızı kabul etmiş sayılırsınız.
✉

Haftalık Bülten

Azure, DevOps ve Yapay Zeka dünyasındaki en güncel içerikleri her hafta doğrudan e-postanıza alın.

Spam yok. İstediğiniz zaman iptal edebilirsiniz.
📱
Uygulamayı Yükle Ana ekrana ekle, çevrimdışı oku
Ana Sayfa
Kategoriler
💻 Geliştirici Araçları 132 yazı 🤖 Yapay Zeka 102 yazı 🏗️ Bulut Altyapı 94 yazı ☁️ Microsoft Azure 92 yazı 🔧 DevOps 72 yazı 🔒 Güvenlik & Kimlik 71 yazı 📊 Veri & Analitik 28 yazı 🏢 Kurumsal Teknoloji 25 yazı 🐳 Konteyner & Kubernetes 17 yazı 📧 Microsoft 365 5 yazı
Ara
Popüler
Yapay Zeka Azure Kubernetes DevOps Copilot Docker
Paylaş
WhatsApp Telegram X LinkedIn
İçindekiler
    ← Cosmos Conf 2026: AI Çağında V...
    →
    📩

    Gitmeden önce!

    Her pazar özenle seçilmiş teknoloji yazıları ve AI haberleri doğrudan e-postanıza gelsin. Ücretsiz, spam yok.

    🔒 Bilgileriniz güvende. İstediğiniz zaman ayrılabilirsiniz.

    📬 Haftalık bülten: Teknoloji + AI haberleri
    Beni Takip Et Yeni Azure / AI / DevOps yazıları LinkedIn ve X'te ilk burada.
    LinkedIn X / Twitter GitHub RSS