首页 GIS基础理论 SAM大模型分割地图?具体流程是如何?

SAM大模型分割地图?具体流程是如何?

作者: GIS研习社 更新时间:2025-12-12 10:00:56 分类:GIS基础理论

你是不是也想用SAM自动圈出地图上的建筑?别急,流程比你想的更接地气

上周我收到一封读者来信:“Dr. Gis,我看别人用Meta的SAM模型一键分割遥感图里的房屋,结果我跑代码报错不说,分出来的全是碎渣渣……”——这太典型了。不是你技术不行,而是没人告诉你:SAM不是万能胶,它需要“地理思维”的引导才能在GIS领域真正发光。

SAM大模型分割地图?具体流程是如何?

我在某智慧城市项目中第一次用SAM时,也犯过同样的错误:直接把原始影像丢进去,结果模型把树影当屋顶、把水体边缘当道路。后来才明白——SAM是“视觉分割大师”,但不懂“地理语义”。

SAM到底是什么?用“切披萨”类比秒懂

想象你面前有一张刚出炉的夏威夷披萨,上面有菠萝、火腿、芝士和面饼。SAM就像一位蒙着眼睛的刀工大师,你只要用手指点一下“这块菠萝”,他就能沿着边缘精准切下来——这就是Segment Anything Model的核心能力:根据点、框或粗略涂鸦,自动识别并分割图像中的任意对象

应用到遥感图上,道理一样:你点一下建筑物,它就给你抠出轮廓;你框一片农田,它就把田埂内外分得清清楚楚。但注意!它不知道“这是建筑”或“那是耕地”,它只认“视觉连续性”和“边缘对比度”。

实战四步走:从安装到输出GeoJSON

下面以QGIS + Python环境为例,手把手带你走通全流程(Windows/Mac通用)。

第一步:环境搭建——别被依赖库吓退

很多人卡在第一步。其实官方提供了极简方案:

pip install segment-anything
pip install opencv-python matplotlib

接着去SAM官方GitHub下载预训练权重(推荐vit_h版本,精度最高)。文件约2.5GB,找个网速好的时间下。

第二步:加载影像并标注提示点——你的“手指”就是鼠标

这里的关键是:不要贪多!新手常犯的错误是一次标几十个点,结果SAM晕头转向。我的经验是:每个目标只给1~3个点,比如建筑物中心点+一个角点。

import cv2
import numpy as np
from segment_anything import SamPredictor, sam_model_registry

# 加载模型
sam = sam_model_registry["vit_h"](checkpoint="sam_vit_h_4b8939.pth")
predictor = SamPredictor(sam)

# 读取遥感影像
image = cv2.imread("your_map.tif")
image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)  # OpenCV默认BGR,转成RGB
predictor.set_image(image)

# 手动标注点(示例:两个点)
input_point = np.array([[500, 300], [550, 320]])  # x,y 坐标
input_label = np.array([1, 1])  # 1=前景,0=背景

第三步:执行分割并后处理——去掉“毛边”和“孤岛”

SAM输出的是掩膜(mask),一堆0和1的矩阵。直接导出会得到锯齿状边缘和零散噪点。这时候必须加两道“地理滤镜”:

  1. 形态学闭运算:填补小孔洞(相当于用“橡皮泥”抹平缺口)
  2. 面积阈值过滤:删除小于10像素的碎斑(避免把汽车阴影当建筑)
from scipy.ndimage import binary_closing

masks, scores, logits = predictor.predict(
    point_coords=input_point,
    point_labels=input_label,
    multimask_output=False  # 只要一个最优mask
)

# 后处理
mask_clean = binary_closing(masks[0], structure=np.ones((5,5)))  # 5x5核闭运算
# 面积过滤需配合connected components分析(代码略,文末提供完整脚本)

第四步:矢量化与坐标配准——让结果回归GIS世界

最后一步最容易被忽略:SAM输出的是像素坐标,必须转换回地理坐标系!否则你的“建筑轮廓”在ArcMap里会漂移到太平洋。

import rasterio
from rasterio.features import shapes

with rasterio.open("your_map.tif") as src:
    transform = src.transform  # 获取仿射变换参数
    crs = src.crs            # 获取原始坐标系

# 将二值mask转为GeoJSON格式的几何
results = (
    {"properties": {"raster_val": v}, "geometry": s}
    for i, (s, v) in enumerate(
        shapes(mask_clean.astype(np.uint8), mask=mask_clean, transform=transform)
    )
)

# 用geopandas保存
import geopandas as gpd
polygons = list(results)
gdf = gpd.GeoDataFrame.from_features(polygons, crs=crs)
gdf.to_file("buildings.geojson", driver="GeoJSON")

避坑指南:三个血泪教训

  • 分辨率陷阱:SAM在50cm分辨率以下效果最佳。若用30m Landsat影像,先超分重建(如ESRGAN)再分割。
  • 波段选择:默认用RGB真彩色。若做植被分割,建议合成假彩色(NIR-R-G),边缘对比度更高。
  • 批量自动化:手动点选不现实。可结合YOLO先检测目标位置,再用检测框作为SAM的输入提示(Prompt)。

总结:SAM不是替代GIS,而是增强GIS

SAM大模型的本质,是给传统GIS工具装上“AI眼睛”。它不能理解土地利用分类体系,也无法遵守测绘规范,但它能把你从繁琐的手动勾绘中解放出来——你负责定义“要什么”,它负责解决“怎么抠”

下次当你面对上千平方公里的无人机影像时,不妨试试这个组合拳:SAM初分割 → 人工抽检修正 → 拓扑检查入库。效率提升至少5倍,亲测有效。

你在用SAM处理遥感数据时踩过哪些坑?或者有什么脑洞大开的应用场景?评论区等你分享!

相关文章