Skip to content

Instantly share code, notes, and snippets.

@samuellangajr
Created March 12, 2025 19:06
Show Gist options
  • Save samuellangajr/3cc35567e551fde46d0b4e5186aaa4f3 to your computer and use it in GitHub Desktop.
Save samuellangajr/3cc35567e551fde46d0b4e5186aaa4f3 to your computer and use it in GitHub Desktop.
Implemente uma função que possa ser usada para avaliar o desempenho de um modelo de classificação de veículos, calculando métricas como precisão, recall e F1-score.
from sklearn.metrics import precision_score, recall_score, f1_score, confusion_matrix
def avaliar_desempenho(y_true, y_pred):
"""
Avalia o desempenho do modelo de classificação de veículos usando precisão, recall e F1-score.
Parâmetros:
y_true (list ou array): Rótulos reais (verdadeiros).
y_pred (list ou array): Rótulos previstos pelo modelo.
Retorna:
dicionário com as métricas de precisão, recall e F1-score.
"""
# Calcular as métricas
precisao = precision_score(y_true, y_pred, average='binary') # Para classificação binária (veículo ou não)
recall = recall_score(y_true, y_pred, average='binary')
f1 = f1_score(y_true, y_pred, average='binary')
# Calcular a matriz de confusão (opcional, para melhor visualização)
conf_matrix = confusion_matrix(y_true, y_pred)
# Exibir as métricas
print("Matriz de Confusão:\n", conf_matrix)
print(f"Precisão: {precisao:.2f}")
print(f"Recall: {recall:.2f}")
print(f"F1-score: {f1:.2f}")
return {"precisao": precisao, "recall": recall, "f1_score": f1}
# Exemplo de uso
y_true = [1, 0, 1, 1, 0, 1] # Rótulos reais
y_pred = [1, 0, 0, 1, 0, 1] # Rótulos previstos pelo modelo
resultados = avaliar_desempenho(y_true, y_pred)
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment