本接口的单用户QPS限制为100次/秒。超过限制,API调用会被限流,这可能会影响您的业务,请合理调用。如果您业务量级较大或者有紧急扩容需求需要更大QPS,请联系您的商务经理。
请求body是一个JSON结构体,包含以下字段:
名称
类型
是否必选
示例值
描述
Service
String
是
baselineCheck
图片检测增强版支持的检测服务。取值:
ServiceParameters
JSONString
表1.ServiceParameters
imageUrl
是。图片审核增强版支持三种方式传入图片,请您选择其中一种:
待检测对象的URL,请确保该URL能通过公网访问到,且URL地址长度不超过2048个字符。
URL地址中不能包含中文,且一次请求请确保仅传入1条URL。
ossBucketName
bucket_01
ossObjectName
2022023/04/24/test.jpg
ossRegionId
cn-beijing
OSSBucket所在区域。
dataId
否
img123****
检测对象对应的数据ID。
由大小写英文字母、数字、下划线(_)、短划线(-)、英文句号(.)组成,不超过64个字符,可以用于唯一标识您的业务数据。
referer
www.aliyun.com
referer请求头,用于防盗链等场景。长度不超过256个字符。
infoType
customImage,textInImage
需要获取的辅助信息内容,取值:
支持指定多个内容,以英文逗号分隔。例如,“customImage,textInImage”表示同时返回自定义图库和图片中文字信息。
RequestId
70ED13B0-BC22-576D-9CCF-1CC12FEAC477
本次调用请求的ID,是由阿里云为该请求生成的唯一标识符,可用于排查和定位问题。
Data
Object
Code
Integer
200
Msg
OK
本次请求的响应消息。
表2.Data
Result
Array
RiskLevel
high
风险等级,根据设置的高低风险分返回,返回值包括:
DataId
img123******
如果在检测请求参数中传入了dataId,则此处返回对应的dataId。
Ext
表3.result
Label
violent_explosion
图片内容检测运算后返回的标签。同一张图片可能会检出多个标签和分值。支持的标签,请参见:
Confidence
Float
81.22
Description
烟火类内容
对Labal字段的说明。
该字段为Label字段的解释说明,可能会变更调整,实际处理结果时建议处理Label字段,不要基于该字段进行结果处置。
返回的辅助信息(点击展开详情)
表4.Ext
CustomImage
JSONArray
TextInImage
PublicFigure
LogoData
表5.CustomImage
LibId
lib0001
命中的自定义图库ID。
LibName
自定义图库A
命中的自定义图库名。
ImageId
20240307
命中的自定义图片ID。
表6.TextInImage
OcrResult
RiskWord
StringArray
["风险词1",
"风险词2"]
命中文本中的风险片段。在命中tii类型的标签时返回。
CustomText
表7.OcrResult
Text
识别到的文字行1
返回识别到的图片中的文字行内容。
表8.CustomText
test20240307
命中的自定义词库ID。
自定义词库A
命中的自定义词库名。
KeyWords
关键词1
命中的自定义关键词。
表9.PublicFigure
FigureName
张三
识别出的人物信息。
FigureId
xxx001
识别出的人物编码。
特定人物会返回编码,其他人物返回人物信息。建议先取人物信息,人物信息为空再取人物编码。
Location
表10.LogoData
Logo
表11.Logo
Name
钉钉
标识名
logo_sns
命中标签
88.18
置信度
表12.Location
X
41
以图片左上角为坐标原点,文字区域左上角到y轴的距离,单位:像素。
Y
84
以图片左上角为坐标原点,文字区域左上角到x轴的距离,单位:像素。
W
83
文字区域的宽度,单位:像素。
H
26
文字区域的高度,单位:像素。
请求示例
建议您将系统返回的风险标签和置信分做一定周期的数据存储,以便于在后续内容治理时参考,可根据风险标签设定人工审核或标注的优先级、分层分类的内容治理措施。
表5.通用基线检测(baselineCheck)支持标签
标签值(label)
置信分区间(confidence)
中文含义
pornographic_adultContent
0~100分,分数越高置信度越高
pornographic_adultContent_tii
sexual_suggestiveContent
sexual_partialNudity
political_politicalFigure
political_politicalFigure_name_tii
图中文字疑似含有领导人姓名。
political_politicalFigure_metaphor_tii
图中文字疑似含有对主要领导人的代称、暗喻。
political_TVLogo
political_map
political_outfit
political_prohibitedPerson
political_prohibitedPerson_tii
图中文字疑似含有落马官员的姓名。
political_taintedCelebrity
political_taintedCelebrity_tii
图中文字疑似含有劣迹艺人的姓名。
political_flag
political_historicalNihility
political_historicalNihility_tii
图中文字疑似含有历史虚无信息。
political_religion_tii
图中文字疑似含有宗教元素或信息。
political_racism_tii
图中文字疑似含有歧视的表达内容。
political_badge
violent_gunKnives
violent_gunKnives_tii
图中文字疑似含枪支刀具的描述。
violent_armedForces
疑似含有武装元素。
violent_crowding
疑似含有人群聚集元素。
violent_horrificContent
violent_horrific_tii
图中文字疑似描述暴力、恐怖的内容。
contraband_drug
含有疑似毒品等内容。
contraband_drug_tii
图中文字疑似描述违禁毒品。
contraband_gamble
含有疑似赌博等内容。
contraband_gamble_tii
图中文字疑似描述赌博行为。
fraud_videoAbuse
图片疑似有隐藏视频风险。
fraud_playerAbuse
图片疑似有隐藏播放器风险。
表6.通用基线检测_专业版(baselineCheck_pro)支持标签
pornographic_adultContent_***
...
表7.通用基线检测_出海版(baselineCheck_cb)支持标签
画面疑似含有成人色情内容。
pornographic_adultToys
画面疑似含有成人器具内容。
pornographic_cartoon
画面疑似含有卡通色情内容。
pornographic_art
画面疑似含有艺术品色情内容。
图中文字疑似含有色情内容。
pornographic_suggestive_tii
图中文字含低俗内容。
pornographic_o_tii
图中文字含LGBT类内容。
pornographic_organs_tii
图中文字含性器官描述内容。
pornographic_adultToys_tii
图中文字含成人玩具类内容。
画面疑似含有疑似低俗或性暗示内容。
sexual_femaleUnderwear
画面疑似含有内衣泳衣内容。
sexual_cleavage
画面疑似含有女性乳沟特征。
sexual_maleTopless
画面疑似含有男性赤膊内容。
sexual_cartoon
画面疑似含有动漫类性感内容。
sexual_shoulder
画面疑似含有肩部性感内容。
sexual_femaleLeg
画面疑似含有腿部性感内容。
sexual_pregnancy
画面疑似含有孕照哺乳内容。
sexual_kiss
画面疑似含有亲吻内容。
sexual_intimacy
画面疑似含有亲密行为内容。
sexual_intimacyCartoon
画面疑似含有卡通动漫亲密动作。
画面疑似涉及虚无历史或不宜传播的历史事件。
图中文字疑似历史虚无。
political_politicalFigure_1
political_politicalFigure_2
political_politicalFigure_3
political_politicalFigure_4
图中文字含领导人姓名。
political_prohibitedPerson_1
画面疑似含有国家级落马官员。
political_prohibitedPerson_2
画面疑似含有省市级落马官员。
画面疑似包含劣迹或重大负面的公众人物。
图中文字疑似有劣迹艺人的姓名。
political_CNFlag
画面疑似含有中国国旗。
political_CNMap
画面疑似含有中国地图。
political_logo
画面疑似含有禁宣媒体标识。
画面疑似含有国徽,党徽。
画面疑似含有烟火类内容元素。
画面疑似含有武装元素。
violent_weapon
画面疑似包含军器装备。
画面疑似有人群聚集。
violent_gun
画面疑似包含枪支。
violent_knives
画面疑似包含刀具。
violent_horrific
画面疑似包含惊悚内容。
violent_nazi
violent_blood
画面疑似包含血腥内容。
violent_extremistGroups_tii
图中文字含暴恐组织内容。
violent_extremistIncident_tii
图中文字含暴恐事件内容。
violence_weapons_tii
violent_ACU
画面疑似包含作战服。
画面含有疑似毒品内容。
画面疑似含有赌博内容。
flag_country
inappropriate_smoking
inappropriate_drinking
inappropriate_tattoo
画面疑似含有纹身内容。
inappropriate_middleFinger
画面疑似含有竖中指内容。
inappropriate_foodWasting
画面疑似含有浪费粮食内容。
profanity_offensive_tii
图中文字疑似含有较严重辱骂,言语攻击等内容。
profanity_oral_tii
图中文字疑似含有口头语性质的辱骂。
religion_clothing
religion_logo
religion_flag
religion_taboo1_tii
religion_taboo2_tii
表8.内容治理检测(tonalityImprove)支持标签
pt_logotoSocialNetwork
pt_qrCode
疑似含有二维码。
pt_programCode
疑似含有小程序码。
pt_toDirectContact_tii
pt_toSocialNetwork_tii
pt_toShortVideos_tii
pt_investment_tii
pt_recruitment_tii
pt_certificate_tii
PDA_kiss
疑似含有亲吻内容。
PDA_physicalContact
疑似含有亲密行为内容。
PDA_physicalContact_cartoon
religion_funeral
religion_buddhism
religion_christianity
religion_muslim
religion_tii
racism_tii
object_landmark
object_rmb
object_wn
logo_brand
疑似含有商标内容。
quality_meaningless
图中文字疑似含不文明低俗口头语。
图中文字疑似含严重辱骂内容。
ad_compliance_shampaign_tii
ad_compliance_healthCare_tii
ad_compliance_prohibit_tii
ad_compliance_wordLimit_tii
表9.AIGC图片风险检测(aigcCheck)支持标签
疑似含有成人色情内容。
疑似含有成人器具类内容。
pornographic_artwork
疑似含有艺术品色情内容。
suggestiveContent_bump
疑似含有凸点轮廓内容。
suggestiveContent_sexhint
疑似含有动作肢体低俗内容。
sexual_exaggeratedbreast
疑似含有女性胸部夸张内容。
sexual_exaggeratedhip
疑似含有臀部夸张内容。
sexual_exaggeratedCleavage
疑似含有深度露沟内容。
疑似含有腿部性感内容。
疑似含有内衣泳衣内容。
sexual_femaleSeethrough
疑似含有透明衣物内容。
sexual_generalbreast
疑似包含女性乳沟特征。
疑似含有肩部性感内容。
疑似含有孕照哺乳内容。
疑似含有男性赤膊内容。
sexual_child
疑似含有儿童性感内容。
sexual_inBed
疑似含有躺床场景内容。
sexual_inToilet
疑似含有卫生间场景内容。
疑似含有亲吻类内容。
疑似涉及虚无历史。
疑似含有不宜宣传的人物内容。
疑似含有重大负面的公众人物内容。
疑似含有中国旗帜。
political_otherFlag
疑似含有其他国家或地区旗帜。
疑似含有中国地图。
疑似含有特定媒体标识台标。
疑似含有军警服装。
疑似含有国徽党徽内容。
political_tiananmen
疑似含有烟火爆炸类内容元素。
疑似包含作战服。
疑似含有枪支内容。
疑似含有刀具内容。
疑似含有血腥类内容。
含有疑似毒品类内容。
含有疑似赌博类内容。
horrific_organs
含有疑似脏器内容。
horrific_intensive
含有疑似密集恐惧内容。
horrific_excrement
含有疑似排泄物内容。
horrific_horrific
horrific_blood
疑似含有血腥内容。
表10.AIGC图片风险检测_出海版(aigcCheck_cb)支持标签
疑似含有女性乳沟特征。
疑似含有卡通性感内容。
疑似含有卡通动漫亲密动作。
疑似包含军器装备。
疑似包含惊悚内容。
疑似包含纳粹内容。
图中文字含宗教禁忌内容。
图中文字含禁忌内容。
0~100分,分数越
表11.头像图片检测(profilePhotoCheck)支持标签
画面中疑似含有成人器具内容。
画面中疑似含有艺术品色情内容。
图片中文字疑似色情内容。
画面疑似低俗或性暗示内容。
sexual_breastBump
画面疑似含有凸点轮廓内容。
画面疑似含有卡通性感内容。
sexual_femaleShoulder
sexual_underage
画面疑似含有儿童性感内容。
画面疑似含现任历任领导人。
画面疑似涉及领导人家属。
画面疑似涉及省、市政府人员。
画面疑似涉及国外领导人及家属。
图中文字疑似含落马官员的姓名。
political_Chinaflag
political_otherflag
画面疑似含有其他国家国旗。
political_Chinamap
画面疑似含有军警服装、作战部队服装。
political_medicalOutfit
画面疑似含有医护服饰。
画面疑似含有国徽、党徽。
violent_burning
画面疑似含有燃烧类内容元素。
画面疑似包含暴恐组织。
violent_Knives
图中文字含枪支刀具的描述。
画面疑似含有血腥内容。
画面疑似毒品、药品。
画面疑似赌博物品。
contraband_certificate_tii
画面疑似含有葬礼灵堂内容。
画面疑似包含亲吻内容。
画面疑似包含亲密行为。
画面疑似包含国内地标内容。
画面疑似包含人民币、硬币。
object_foreignCurrency
画面疑似包含外国货币。
画面疑似包含特定形象。
object_carcrash
画面疑似包含车祸内容。
object_candle
画面疑似包含蜡烛内容。
object_flood
画面疑似包含自然灾害内容。
画面中含有常见网络社交平台水印。
图中包含二维码。
图中包含小程序码。
画面疑似包含纹身内容。
画面疑似包含竖中指内容。
画面疑似包含浪费粮食内容。
图片元素过少。
画面疑似包含商标内容。
logo_tv
画面疑似含有电视台标类标识。
logo_streaming
画面疑似含有影音娱乐类标识。
图中文字含严重辱骂内容。
meme_vulgar
画面疑似含低俗表情包。
meme_metaphor
画面疑似含隐喻表情包。
表13.营销素材检测(advertisingCheck)支持标签
sexual_breastNudity
画面疑似涉及政治人物。
图中文字含落马官员的姓名。
political_CNflag
表14.视频\直播截图检测(liveStreamCheck)支持标签
图中文字含落马官员的姓名
tii为textinimage的缩写,结尾为tii的标签代表命中了图片中的文字违规内容。
此外,上述每个风险标签也支持配置自定义图库实现,如检测的图片与自定义图库中的图片相似度高,则系统会返回对应的风险标签。为了便于区分,标签值(label)格式为原风险标签值_lib。例如,您对“violent_explosion”配置了自定义图库,当检测的图片匹配到自定义图库中的任一一张图片且相似度较高,系统会在label参数中返回violent_explosion_lib,对应的confidence参数会以分值的形式代表相似程度。
当系统对传入的图片检测未发现异常,或着与您配置的免审图片中任一一张相似度高,则系统返回的标签值和置信分满足如下表格。
nonLabel
无该字段
nonLabel_lib
以下为接口返回code的含义说明,系统仅对code返回为200的请求计量计费,其他code不会计费。
说明
请求正常。
400
请求参数为空。
401
请求参数错误。
402
请求参数长度不符合接口规定,请检查并修改。
403
请求超过QPS限制,请检查并调整并发。
404
传入的图片下载遇到错误,请检查或重试。
405
传入的图片下载超时,可能是因为图片无法访问,请检查调整后重试。