Use este identificador para citar ou linkar para este item: http://hdl.handle.net/11422/14057
Tipo: Dissertação
Título: Adversarial selection of challenge-response pairs as a defense against strong PUF modeling attacks
Título(s) alternativo(s): Seleção adversarial de challenge-response pairs como defesa contra ataques de modelagem a pufs
Autor(es)/Inventor(es): França, Horácio Lima
Orientador: Pedreira, Carlos Eduardo
Coorientador: Prado, Charles Bezerra do
Resumo: Neste trabalho, apresentamos métodos para melhor proteger os mecanismos de autenticação incorporados em hardware conhecidos como Physically Unclonable Functions (PUFs). Esses mecanismos usam as características físicas únicas dos chips nos quais estão inseridos para criar um conjunto de respostas que se mostraram vulneráveis a ataques de modelagem por aprendizado de máquina. As técnicas desenvolvidas aqui são focadas no uso do Aprendizado de Máquina Adversarial para selecionar as cadeias binárias usadas para as operações de autenticação em questão, comumente conhecidas como Challenge-Response Pairs, para proteger os dispositivos que utilizam esses PUFs de terem suas credenciais de autenticação copiadas. O resultado desta pesquisa é uma série de métodos que se aplicam a diferentes cenários que reduzem a precisão de possíveis ataques de modelagem em até 19%.
Resumo: In this work, we present methods to further secure authentication mechanisms embedded in hardware known as Physically Unclonable Functions (PUFs). These mechanisms use the unique physical characteristics of the chips they are embedded in to create a set of responses were found to be vulnerable to Machine Learning modelling attacks. The techniques developed herein are focused on using Adversarial Machine Learning to select the binary strings used for the authentication operations in question, commonly known as Challenge-Response Pairs, in order to protect the devices using these PUFs from having their authentication credentials copied. The result of this research are a series of methods that apply to different scenarios that reduce the accuracy of possible modelling attacks in up to 19%.
Palavras-chave: Aprendizado de máquina adversarial
Segurança cibernética
PUF
Assunto CNPq: CNPQ::ENGENHARIAS
Programa: Programa de Pós-Graduação em Engenharia de Sistemas e Computação
Unidade produtora: Instituto Alberto Luiz Coimbra de Pós-Graduação e Pesquisa de Engenharia
Editora: Universidade Federal do Rio de Janeiro
Data de publicação: Set-2019
País de publicação: Brasil
Idioma da publicação: eng
Tipo de acesso: Acesso Aberto
Aparece nas coleções:Engenharia de Sistemas e Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
HoracioLimaFranca.pdf520.74 kBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.