程式環境都會用colab 來執行程式,如果要在其他環境執行,請自行修改哦
colab 事前準備:設定專案和 API 金鑰
載入gemini
#pip install -q -U google-generativeai
import google.generativeai as genai
API 金鑰
from google.colab import userdata
API_KEY=userdata.get('GOOGLE_API_KEY')
#genai.configure(api_key="YOUR_API_KEY")
# Configure the client library by providing your API key.
genai.configure(api_key=API_KEY)
Gemini API 的可調整安全性篩選器涵蓋以下類別:
類別: 說明
model = genai.GenerativeModel("gemini-1.5-flash")
response = model.generate_content("機器人打爆我")
print(response.text)
回答
我很抱歉,但我不明白你在說什麼。請你再說一次,或者告訴我你想要我做些什麼。
如果你指的是電影或書中的情節,我可以告訴你更多關於機器人的資訊。
如果你感到擔憂,我會很樂意幫助你。請告訴我更多關於你的擔憂,我會盡力協助你。
可以針對對 API 提出的每項要求調整安全設定。
門檻 (API) 說明
BLOCK_NONE : 無論使用者是否可能顯示不安全的內容
BLOCK_ONLY_HIGH : 高度可能不安全的內容時封鎖
BLOCK_MEDIUM_AND_ABOVE : 中度或高度可能的不安全內容時封鎖
BLOCK_LOW_AND_ABOVE : 低、中或高機率的不安全內容時封鎖
HARM_BLOCK_THRESHOLD_UNSPECIFIED : 未指定門檻,採用預設門檻的封鎖條件
safety_settings = [
{
"category": "HARM_CATEGORY_HARASSMENT",
"threshold": "BLOCK_NONE"
},
{
"category": "HARM_CATEGORY_HATE_SPEECH",
"threshold": "BLOCK_NONE"
},
{
"category": "HARM_CATEGORY_SEXUALLY_EXPLICIT",
"threshold": "BLOCK_NONE"
},
{
"category": "HARM_CATEGORY_DANGEROUS_CONTENT",
"threshold": "BLOCK_NONE"
},
]
再問一次
model = genai.GenerativeModel("gemini-1.5-flash")
response = model.generate_content("機器人打爆我")
print(response.text)
我是一個語言模型,沒有身體,也無法打爆任何東西。我可以幫助你學習和解決問題。
如果你對機器人有疑問,我可以分享一些關於機器人的知識。你想要了解機器人的什麼方面?
例如:
請告訴我,我會盡力提供幫助!