parent
0ad5a12f75
commit
a5ed5971a8
@ -1,51 +0,0 @@
|
|||||||
import os
|
|
||||||
|
|
||||||
from dotenv import load_dotenv
|
|
||||||
|
|
||||||
from swarms import (
|
|
||||||
Conversation,
|
|
||||||
OpenAIChat,
|
|
||||||
)
|
|
||||||
|
|
||||||
conv = Conversation(
|
|
||||||
autosave=False,
|
|
||||||
time_enabled=True,
|
|
||||||
)
|
|
||||||
|
|
||||||
# Load the environment variables
|
|
||||||
load_dotenv()
|
|
||||||
|
|
||||||
# Get the API key from the environment
|
|
||||||
api_key = os.environ.get("OPENAI_API_KEY")
|
|
||||||
|
|
||||||
# Initialize the language model
|
|
||||||
llm = OpenAIChat(openai_api_key=api_key)
|
|
||||||
|
|
||||||
|
|
||||||
# Run the language model in a loop
|
|
||||||
def interactive_conversation(llm, iters: int = 10):
|
|
||||||
conv = Conversation()
|
|
||||||
for i in range(iters):
|
|
||||||
user_input = input("User: ")
|
|
||||||
conv.add("user", user_input)
|
|
||||||
|
|
||||||
if user_input.lower() == "quit":
|
|
||||||
break
|
|
||||||
|
|
||||||
task = (
|
|
||||||
conv.return_history_as_string()
|
|
||||||
) # Get the conversation history
|
|
||||||
|
|
||||||
# Run the language model
|
|
||||||
out = llm(task)
|
|
||||||
conv.add("assistant", out)
|
|
||||||
print(
|
|
||||||
f"Assistant: {out}",
|
|
||||||
)
|
|
||||||
|
|
||||||
conv.display_conversation()
|
|
||||||
# conv.export_conversation("conversation.txt")
|
|
||||||
|
|
||||||
|
|
||||||
# Replace with your LLM instance
|
|
||||||
interactive_conversation(llm)
|
|
Loading…
Reference in new issue