Posts
Option_strategy_analysis_tool
📈 期权策略分析工具上线!—— 轻松可视化你的期权组合 📝 作者:Williams.Wang
🔗 访问地址:optstrategysamemat.williamswang.win
🚀 主要功能 🔹 支持多种期权组合 —— 可添加多个 Call / Put 期权,构建复杂策略。 🔹 自动计算 Payoff & Profit —— 直观显示策略到期时的盈亏情况。 🔹 交互式图表 —— 采用 Chart.js 绘制收益曲线,助你直观分析策略表现。 🔹 策略清单一目了然 —— 在网页上直接查看和管理你的策略构成。 🔹 自适应界面 —— 兼容桌面端 & 移动端,随时随地轻松使用。 🔹 云端运行 —— 无需安装,打开浏览器即可使用。 🎯 如何使用? 访问 optstrategysamemat.williamswang.win 输入你的期权参数(执行价、类型、数量、建仓成本等) 点击“添加期权”,策略表格实时更新 点击“绘制 Payoff & Profit 曲线”,查看策略表现 优化你的交易决策,最大化收益! 🚀 目前仅限绘制策略内所有期权都是同一个到期日的情况! 📌 适用人群 ✅ 期权交易者:分析和优化期权组合,寻找最佳建仓方式
✅ 金融分析师:研究期权策略对市场波动的影响
✅ 量化研究员:快速验证期权模型,调整交易策略
✅ 投资爱好者:学习并理解期权交易的盈亏结构
立即试用!👉 optstrategysamemat.williamswang.win 🚀
read morePosts
Hardware_optimization_language
硬件,优化和语言 DeepSeek 今日开源了 Deep GEMM,一个专注于矩阵计算加速的库。不过,该库目前仅支持 H 系列 GPU,这对普通用户来说限制较大。例如,AWS 的 P5 48x 实例价格高达 约 100 美元/小时,即使是较便宜的选项,也在 约 2 美元/小时/GPU,测试成本仍然较高。
为了直观感受 CPU、GPU 以及不同计算框架优化的影响,我进行了一个简单的对比测试。
测试方法
选取 LLM 计算中常见的矩阵运算,使用 12288 维的 FP32 矩阵 进行 50 次乘法迭代,并分别在以下硬件与计算环境上进行测试: • M4 Pro (14-core) CPU + Python • M4 Pro GPU(通过 C++ + Metal 调用) • NVIDIA T4 + CUDA
测试结果
计算耗时如下: • NVIDIA T4 + CUDA:0.6 秒(最快) • M4 Pro CPU + Python:200 秒 • M4 Pro GPU + C++ + Metal:450+ 秒(最慢)
read morePosts
Tokenspeed
Blog Title: Token Speed Demo - Experience Token Generation in Real Time
Introduction
Welcome to Token Speed Demo, an interactive tool that allows you to experience token generation at different speeds. Deployed at Tokenspeed, this web-based demo showcases how tokens are generated dynamically at user-defined speeds. Whether you’re curious about how AI models like ChatGPT generate tokens or simply want to visualize high-speed token creation, this tool has got you covered.
read morePosts
🚀 Hardware Requirements Analysis for Local Deployment of Deepseek
🖥️ Hardware Requirements Analysis for Local Deployment of Deepseek-R1 Deepseek 的杰出表现给很多人留下了深刻的印象。其中 Deepseek-R1 和 Deepseek-V3 都是非常优秀的模型 🎯,但是二者的侧重点不同:
DS-R1 更加侧重于 数学、代码和推理功能 💡。 DS-V3 专注于 自然语言处理、知识问答、内容创作 ✍️ 等通用任务。 事实上,DS 之前就同时推出了 2 款模型,分别侧重于一般对话和代码生成。
鉴于 DS 模型的优秀表现,如果能在本地部署,并且能够以较快的速度推理,无疑会极大地提高用户的使用效率和稳定性 🚀。这里要额外说明 本地部署的含义:
模型的计算推理完全基于本地的硬件 🏠,只要你的电脑通电,不管是否联网都能完成推理。 为此, 笔者基于公开数据简单推理,如果在 本地部署 这两个模型所需要的 硬件设备 🛠️。好消息是 两个模型的参数规模基本一样,总参数都是 671B,激活参数 37B 📊。
📢 声明:笔者能力有限,以下内容如有错误,还请读者及时沟通反馈 🤝。
🖥️ Motherboard(主板) 本地部署模型有两种解决方案:
CPU + 内存 🏗️ GPU + 显存 🎮 这里我们采用 方案一(CPU+内存),那么 内存带宽和内存容量 就是两个非常重要的因素 📏📦。因为在推理过程中:
模型权重和中间数据的存储都在内存中,计算过程则在 CPU 中完成 🧠。 由于 LLM 模型的权重非常大,我们需要 足够的内存插槽 才能应对。 ✅ 选择:技嘉 MZ73-LM0 PCIE5.
read morePosts
DeepseekPapers
Deepseek’s Published Research Papers: 2024 to Present Deepseek has made remarkable contributions to the field of [specify field, e.g., artificial intelligence, quantum computing, etc.] by publishing cutting-edge research papers. This collection includes all publicly available papers from 2024 to the present, meticulously converted into a bilingual format (English-Chinese) for broader accessibility.
Key Highlights Publication Period: 2024 to January 2025. Languages: All papers are presented in English and Chinese side by side, catering to a global audience.
read morePosts
2025progressbar
2025 Progress Bar As the new year begins, I wanted to share an interactive project that visualizes our progress throughout 2025: the 2025 Progress Bar. This project combines a dynamic progress bar with playful animations and a countdown to the end of the year.
Live Demo You can view the live demo of this project at:
👉 https://2025progressbar.williamswang.win
read morePosts
GPUmemoryestimator
GPU memory estimator for LLM This is a tool designed to help you estimate GPU memory requirements for large language models (LLMs) based on the number of parameters and precision settings. It can be accessed via the following link:
Visit GPU Memory Estimator
By providing the parameter count and precision, you can quickly get an estimate of the GPU VRAM required to run the model efficiently.
read more