近日,阿里媽媽創意團隊開源了一款名爲FLUX-Controlnet-Inpainting的AI圖像修復模型。該模型基於FLUX.1-dev模型架構,並在1200萬張laion2B圖像和阿里內部數據集上進行了訓練,分辨率高達768x768,能夠對圖像進行高質量的修復。

這款工具不僅繼承了FLUX.1-dev模型的高質量圖像生成能力,更巧妙地融合了ControlNet的優勢。它能夠根據圖像的邊緣、線稿、深度圖等信息進行精準修復,在指定區域生成與周圍環境和諧一致的內容,爲受損或缺失的圖像部分帶來新生。
這款模型的一大亮點是它能夠理解用戶的語言描述,並根據描述對圖像進行精準修復,例如根據用戶提供的文字描述,在圖像中添加或移除物體,甚至改變圖像的風格。
FLUX-Controlnet-Inpainting模型現已在Hugging Face平臺開源,並提供了詳細的使用教程和示例代碼,用戶可以通過pip安裝diffusers庫,並從GitHub克隆項目代碼,即可快速體驗該模型的強大功能。
阿里媽媽創意團隊表示,目前發佈的FLUX-Controlnet-Inpainting模型還處於alpha測試階段,未來還將持續優化模型性能,並計劃在未來發布更新版本。
項目地址:https://github.com/alimama-creative/FLUX-Controlnet-Inpainting
工作流下載地址:https://huggingface.co/alimama-creative/FLUX.1-dev-Controlnet-Inpainting-Alpha/resolve/main/images/alimama-flux-controlnet-inpaint.json
