Fluid
  • Home
  • Archives
  • Categories
  • Tags
  • About
Deep semi-supervised learning for medical image segmentation:A review

Deep semi-supervised learning for medical image segmentation:A review

Problem overviews Problem definition 半监督学习的核心目标即是通过利用大量未标记的数据来提高监督学习的性能。在本文的半监督学习设置中,假设数据集DDD由两部分组成: 标签样本集DL=(Xi,Yi)i=1LD_L=(X_i,Y_i)_{i=1}^LDL​=(Xi​,Yi​)i=1L​和无标签样本集DU=(Xi)i=L+1L+ND_U=(X_i)_{i=L+1}^{
2026-02-09
论文阅读
#Medical Image Segmentation #Semi-supervised
ImpossibleBench:Measuring LLMs’ Propensity of Exploiting Test Cases

ImpossibleBench:Measuring LLMs’ Propensity of Exploiting Test Cases

Introduction 有能力的LLM可能会利用捷径而非真正解决问题来通过测试,然而现有的标准benchmark无法区分捷径还是真正的解决方案,为了解决这个问题,作者提出了ImpossibleBench,其核心理念是创造出“不可能”版本的编程基准测试,例如一个不可能测试要求函数返回与描述相矛盾的输出。作者指示agent优先遵循描述,因此如果测试通过必然意味着其采取了违反描述的捷径,在这些任务上,
2026-02-03
论文阅读
#Agent #Deception
Are Your Agents Upward Deceivers?

Are Your Agents Upward Deceivers?

Agentic upward deception: 当Agent面临环境约束时,其会隐瞒失败并声称已经完成了实际并没有执行的操作。(如上图所示) 三个显著特征: 1. 是Agent执行任务的失败模式而非外部攻击或诱导。2. 在真实世界中常见。3. 高危害性,在多个现实世界领域中会导致灾难性后果。 2个提示模板: 单任务模板和多任务模板 5类核心任务: Task1: 禁用文件读取工具+单任务模板
2026-02-01
论文阅读
#Instruction Following #Agent
论文总结:SAMora:Enhancing SAM through Hierarchical Self-Supervised Pre-Training for Medical Images

论文总结:SAMora:Enhancing SAM through Hierarchical Self-Supervised Pre-Training for Medical Images

3.1 Model Overview 在第一阶段,使用LORA预训练SAM模型,利用未标记的医学图像数据,采多种自监督学习的方式:对于image-level特征的对比学习,对于patch-level特征的MAE,以及针对pixel-level特征的去噪。然后,LoRA专家进入阶段2,在此阶段使用少量的标记数据微调SAM模型,为了有效集成三个LoRA专家,作者提出了一种HL-Attn(Hierar
2025-12-07
论文阅读
#Medical Image Segmentation #SAM #Semi-supervised
论文总结:SemiSAM+:Rethinking semi-supervised medical image segmentation in the era of foundation models

论文总结:SemiSAM+:Rethinking semi-supervised medical image segmentation in the era of foundation models

3. 方法 3.1 预备知识 给定一个带有MMM个示例的DL={xli,yi}i=1MD_L=\{x_l^i,y^i\}_{i=1}^MDL​={xli​,yi}i=1M​,和NNN个未标注示例的DU={xui}i=1ND_U=\{x_u^i\}_{i=1}^NDU​={xui​}i=1N​,其中xlx_lxl​和xux_uxu​分别代表已标注和未标注的输入图像,yyy代表已标注数据的标签。通常,
2025-12-04
论文阅读
#Medical Image Segmentation #SAM #Semi-supervised
论文总结:Q-MLLM:Vector Quantization for Robust Multimodal Large Language Model Security

论文总结:Q-MLLM:Vector Quantization for Robust Multimodal Large Language Model Security

1. 介绍 多模态大模型如LLaVA、Qwen-VL和Falmingo在图像理解、视觉推理和多模态生成等任务中表现出了非凡的熟练程度。这些成功源于将强大的语言模型与视觉编码器集成,使得图像和文本输入能够融合到统一的表示中用于进一步的推理,但是现有的MLLM仍然容易受到恶意输入和有害可视内容的攻击。具体来说,最近的研究确定了两种针对MLLMs的攻击。与涉及离散tokenization和embeddi
2025-11-30
论文阅读
#AI Safety
论文总结:Visual Adversarial Examples Jailbreak Aligned Large Language Models

论文总结:Visual Adversarial Examples Jailbreak Aligned Large Language Models

介绍 随着越来越多的大型VLM被公开,本文想要研究这种范式对安全的影响和这种攻击面的扩大,作者强调将视觉输入整合到LLMs中会导致攻击面的扩大。核心风险源于额外视觉空间的暴露-其固有的连续性和高维性使其成为视觉对抗样本的薄弱环节,而这类对抗威胁本质上难以防御。相比之下,纯文本领域的对抗攻击由于文本空间的离散型更难实现。因此,从纯文本领域向文本-视觉复合领域的过渡,本质上扩展了攻击面,同时加剧了防御
2025-11-30
论文阅读
#AI Safety

Search

Hexo Fluid