Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/11422/14057
Especie: Dissertação
Título : Adversarial selection of challenge-response pairs as a defense against strong PUF modeling attacks
Otros títulos: Seleção adversarial de challenge-response pairs como defesa contra ataques de modelagem a pufs
Autor(es)/Inventor(es): França, Horácio Lima
Tutor: Pedreira, Carlos Eduardo
Tutor : Prado, Charles Bezerra do
Resumen: Neste trabalho, apresentamos métodos para melhor proteger os mecanismos de autenticação incorporados em hardware conhecidos como Physically Unclonable Functions (PUFs). Esses mecanismos usam as características físicas únicas dos chips nos quais estão inseridos para criar um conjunto de respostas que se mostraram vulneráveis a ataques de modelagem por aprendizado de máquina. As técnicas desenvolvidas aqui são focadas no uso do Aprendizado de Máquina Adversarial para selecionar as cadeias binárias usadas para as operações de autenticação em questão, comumente conhecidas como Challenge-Response Pairs, para proteger os dispositivos que utilizam esses PUFs de terem suas credenciais de autenticação copiadas. O resultado desta pesquisa é uma série de métodos que se aplicam a diferentes cenários que reduzem a precisão de possíveis ataques de modelagem em até 19%.
Resumen: In this work, we present methods to further secure authentication mechanisms embedded in hardware known as Physically Unclonable Functions (PUFs). These mechanisms use the unique physical characteristics of the chips they are embedded in to create a set of responses were found to be vulnerable to Machine Learning modelling attacks. The techniques developed herein are focused on using Adversarial Machine Learning to select the binary strings used for the authentication operations in question, commonly known as Challenge-Response Pairs, in order to protect the devices using these PUFs from having their authentication credentials copied. The result of this research are a series of methods that apply to different scenarios that reduce the accuracy of possible modelling attacks in up to 19%.
Materia: Aprendizado de máquina adversarial
Segurança cibernética
PUF
Materia CNPq: CNPQ::ENGENHARIAS
Programa: Programa de Pós-Graduação em Engenharia de Sistemas e Computação
Unidade de producción: Instituto Alberto Luiz Coimbra de Pós-Graduação e Pesquisa de Engenharia
Editor: Universidade Federal do Rio de Janeiro
Fecha de publicación: sep-2019
País de edición : Brasil
Idioma de publicación: eng
Tipo de acceso : Acesso Aberto
Aparece en las colecciones: Engenharia de Sistemas e Computação

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
HoracioLimaFranca.pdf520.74 kBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.