cozyqh
本站致力于IT相关技术的分享
实现Java向Python Celery通过Azure Service Bus的透明任务分发 实现Java向Python Celery通过Azure Service Bus的透明任务分发
一个常见的企业级场景是:核心业务系统由Java构建,稳定而健壮;而数据处理、机器学习或异步任务则由Python生态下的Celery集群负责。当Java系统需要触发一个Python任务时,问题就出现了。如何在两个完全不同的技术栈之间,搭建一个
使用 Tonic gRPC 和 SSE 构建 Puppet 节点的自动化凭证轮换控制平面 使用 Tonic gRPC 和 SSE 构建 Puppet 节点的自动化凭证轮换控制平面
配置管理节点(例如 Puppet Agent)的凭证轮换一直是个棘手的运维问题。传统的基于 Cron 的脚本缺乏即时性、可观测性和可靠的错误处理。在一次安全审计后,我们团队被要求构建一个能够按需、自动化、并且全程可观测的凭证轮换机制,以应对
2023-10-27
构建从私有VPC经由RabbitMQ到Snowflake的安全异步数据管道 构建从私有VPC经由RabbitMQ到Snowflake的安全异步数据管道
一个棘手的架构挑战摆在面前:部署在AWS私有VPC(Virtual Private Cloud)内的数十个微服务,持续不断地产生着高价值的分析型事件数据。业务方要求将这些数据近实时地汇入Snowflake数据仓库,以支持BI报表和机器学习模
2023-10-27
利用 GitHub Actions 为 Algolia 索引实现零停机时间的蓝绿部署自动化 利用 GitHub Actions 为 Algolia 索引实现零停机时间的蓝绿部署自动化
我们团队最初同步 Algolia 索引的方式非常直接:在部署流程的最后,执行一个 PHP 脚本,调用 scout:import 命令。对于一个只有几千条记录的小型项目,这没什么问题。但当数据量增长到百万级别,这个操作就成了发布的噩梦。一次完
2023-10-27
在 DigitalOcean 上使用 Redis Streams 构建具备幂等消费与死信队列的事件处理器 在 DigitalOcean 上使用 Redis Streams 构建具备幂等消费与死信队列的事件处理器
我们团队最近接手了一个需求:为用户行为生成异步的、可审计的轨迹记录。这个功能本身不复杂,但对系统的要求却很苛刻:主流程不能被阻塞,记录必须保证最终送达,且不能因为重复投递导致数据错乱。起初,团队的几个同事本能地想到了 Kafka。毫无疑问,
2023-10-27
构建基于 Fastify 与 ASP.NET Core 的异构 MLOps 推理服务 构建基于 Fastify 与 ASP.NET Core 的异构 MLOps 推理服务
我们的技术栈从来不是单一的。模型训练团队主力使用 Python 和 MLflow,而核心业务后端则由一个稳定的 ASP.NET Core 集群承载。最近,一个新的需求是将模型推理能力暴露为高性能、低延迟的 API,前端和移动端团队则更偏爱
4 / 5