Vakantieverhuur woningfraude

Algoritmen > Vakantieverhuur woningfraude
Ruimte en Economie

Overzicht

Vakantieverhuur woningfraude

Tags

MeldingToezicht en Handhaving

In Amsterdam is er beperkt woon- en verblijfsruimte, zowel voor Amsterdammers als voor bezoekers. Het verhuren van een woning of woonboot aan toeristen moet aan bepaalde voorwaarden voldoen. Het mag bijvoorbeeld maximaal 30 nachten per jaar en aan 4 personen per keer. Het moet gemeld worden bij de gemeente.

Niet iedereen houdt zich aan die voorwaarden. De gemeente krijgt soms meldingen van buren die vermoeden dat een woning onterecht verhuurd is. Medewerkers van Toezicht & Handhaving doen daar onderzoek naar.

Vanaf 1 juli 2020 doen we gedurende een half jaar een test (pilot) met een algoritme dat de medewerkers van Toezicht & Handhaving ondersteunt als zij meldingen van mogelijke illegale vakantieverhuur onderzoeken. Het algoritme helpt de meldingen te prioriteren zodat de beperkte handhavingscapaciteit efficiënt en effectief ingezet kan worden. Door gegevens te analyseren, schat het algoritme het risico in dat de woning op het gemelde adres illegaal wordt verhuurd. Het algoritme gebruikt daarvoor data uit woonfraudezaken van de afgelopen 5 jaar. Het gaat om meldingen, gegevens die de gemeente tijdens het werkproces heeft verzameld, persoonsgegevens (Basisregistratie Personen) en gegevens over gebouwen (Basisregistratie Adressen en Gebouwen).


Link naar beschreven dienst

Contactgegevens


  • Afdeling of team

  • Directie Wonen, Toezicht en Handhaving
  • Contactpersoon voor vragen

  • Team Vakantieverhuur
  • Leverancier

  • Ontwikkeld in eigen beheer
  • E-mail

  • CIO-office@amsterdam.nl
  • Telefoonnummer

  • 14020


Gedetailleerde informatie over het systeem

U kunt hier zien welke gegevens (data) het algoritme gebruikt, welke programmeerregels het volgt en welke waarborgen er zijn die ervoor zorgen dat het algoritme verantwoord te werk gaat.


DataToon meerToon minder

Overzicht van de belangrijkste datasets die gebruikt zijn in de ontwikkeling en de toepassing van het algoritme. De verschillende datasets worden onderscheiden door subkoppen.

Identiteits- en huisvestingsgegevens (BRP)

Een beperkte set gegevens uit de Basisregistratie Personen (BRP) over de identiteit en huisvestingssituatie van de bewoners, namelijk:
– naam van de geregistreerde bewoners;
– geboortedatum;
– geslacht;
– datum van vestiging in Amsterdam;
– datum van vestiging op het adres;
– aantal inwoners;
– gezinssamenstelling;
– overlijdensdatum.

Gegevens over gebouwen (BAG)

Een beperkte set gegevens uit de Basisregistratie Adressen en Gebouwen (BAG) over het gebouw, namelijk:
– adres, straatcode, postcode;
– omschrijving pand;
– Amsterdamse BAG-code, landelijke BAG-code;
– type woning (huur, sociale huur / vrije sector, koop);
– aantal kamers;
– vloeroppervlak
– bouwlaag van voordeur appartement;
– aantal bouwlagen;
– omschrijving verdieping woonobject.

Gegevens uit woonfraudezaak

Gegevens uit de melding en eventuele gerelateerde woonfraudezaken, namelijk:
– datum van start van onderzoek / melding;
– stadium van behandeling van de melding;
– meldcode;
– code overtreding;
– code (behandelend) medewerker;
– wel / geen anonieme melder;
– situatieschets;
– gebruiker die melding heeft gecreëerd (met datum), of aangepast (met datum aanpassing);
– behandelcode (type zaak, indeling in team);
– datum wanneer zaak afgesloten;
– reden waarom zaak afgesloten.


Link naar de privacyverklaring

DataverwerkingToon meerToon minder

Hoe gebruikt het systeem de data?

Architectuur van het model

Gemeente Amsterdam heeft een algoritme ontwikkeld dat verbanden en patronen kan vinden in grote hoeveelheid informatie over woonfraude. Het algoritme berekent welke informatie vaker in verband kan worden gebracht met woonfraude en welke informatie niet. Het algoritme doet dit door wiskundige berekeningen uit te voeren volgens het kansboom-principe. Dat wil zeggen dat het algoritme op basis van een groot aantal kansberekeningen een gemiddelde neemt. Dit gemiddelde wordt gebruikt om de wiskundige verwachting te genereren van illegale vakantieverhuur op een adres. Het algoritme berekent deze verwachting pas als we een nieuwe melding (bijvoorbeeld van een omwonende of verhuurplatform) ontvangen van mogelijke illegale vakantieverhuur.

Dit algoritme wordt een ‘random forest regressie algoritme’ genoemd. Om de door het algoritme gemaakte afwegingen inzichtelijk te maken voor mensen passen we de “SHAP”-methodiek toe (SHapley Additive exPlanations; https://github.com/slundberg/shap). SHAP berekent voor iedere individuele zaak welke indicatoren hebben bijgedragen aan die voorspelling en of dit ervoor zorgde dat de voorspelling hoger of lager werd. Zo kan een medewerker altijd zien waar het algoritme de risico-inschatting op heeft gebaseerd en een afgewogen besluit nemen.

Content

Architectuur van het model

Prestatie

Het voordeel van een ‘random forest regressie’ is dat het een redelijk complex algoritme is dat de werkelijkheid goed kan benaderen. Maar er is wel een kans op overfitting. Een ‘tree’ met veel lagen perst de data uit om specifieke antwoorden te leveren. Er is onderzocht hoeveel lagen het model nodig heeft om generiek inzetbaar te blijven en dus niet te overfitten. Daarnaast worden continu datapunten gecategoriseerd (gegroepeerd), zodat het model een overzichtelijk aantal mogelijkheden heeft in plaats van een oneindig aantal met continue waarden. Hierdoor is het model beter in staat is om tot een conclusie te komen.

Tegengaan van discriminatieToon meerToon minder

Hoe bevordert het algoritme gelijke behandeling of gaat het ongelijke behandeling tegen?

Bij het ontwikkelen van het algoritme hebben we kritisch gekeken naar beschikbare datasets. Hiervoor is een ‘Privacy Impact assessment’ (PIA) opgesteld. We hebben ervoor gekozen niet alle beschikbare informatie te verwerken in het algoritme. We hebben alleen informatie die noodzakelijk is voor het vaststellen van een overtreding van de Huisvestingswet opgenomen in de dataset waarop het algoritme is ontwikkeld. Informatie als geboorteplaats, nationaliteit, burgerlijke staat en geboorteland zijn niet verwerkt in het algoritme. Dat voorkomt dat er een vertekend beeld of vooroordeel ontstaat over specifieke groepen.

De gegevens die het algoritme gebruikt, komen van eerdere illegale vakantieverhuurzaken. Er moeten kwalitatief goede gegevens worden gebruikt om een handhavingsbesluit te kunnen onderbouwen en juridisch staande te kunnen houden. We nemen daarom aan dat de onderliggende gegevens geen wezenlijke vooroordelen bevatten, die doen twijfelen aan de betrouwbaarheid van de gegevens en de kansberekening.

Een algoritme kan echter zo goed zijn in het vinden van patronen, dat het direct uitsluiten van gevoelige gegevens niet voldoende is. We hebben daarom ook uitgezocht of de niet-gevoelige gegevens die het algoritme verwerkt indirect toch tot ongewenste verschillen in behandeling leiden. Het zou bijvoorbeeld kunnen dat in bepaalde wijken veel mensen wonen met een bepaalde nationaliteit, of dat een bepaalde groep gemiddeld genomen grotere gezinnen heeft. Als het algoritme dan gebruik kan maken van een gegeven als postcode of gezinsgrootte, kan het indirect alsnog onderscheid maken tussen bepaalde groepen, simpelweg door onderscheid te maken tussen wijken/gezinsgrootte. Zo kan een groep alsnog benadeeld worden door het algoritme, ook al is de groep niet expliciet bekend bij het algoritme. We hebben er daarom voor gekozen om gedurende de pilot nader onderzoek te doen naar deze vorm van algoritmische vooroordelen. Hiervoor gebruiken we onder meer de ‘AI Fairness 360 toolkit’ (https://aif360.mybluemix.net).

Menselijk toezichtToon meerToon minder

In hoeverre houden mensen toezicht op de werking van het algoritme?

Er is geen sprake van geautomatiseerde besluitvorming. Als we een adres onderzoeken op het vermoeden van illegale vakantieverhuur komt dit voort uit een melding van bijvoorbeeld een omwonende of een verhuurplatform. Het algoritme helpt de medewerkers van Toezicht & Handhaving te bepalen bij welke meldingen de kans op fraude het grootst is, zodat die meldingen het eerst onderzocht kunnen worden. De medewerker krijgt een overzicht te zien, die toont op grond van welke criteria het algoritme het risico op fraude hoog of laag inschat. Op die manier maken we inzichtelijk waarop het algoritme de risico-inschatting heeft gebaseerd.

Of er daadwerkelijk sprake is van woonfraude wordt vastgesteld door de verantwoordelijk toezichthouder en de projecthandhaver. Daarvoor wordt een voor- en buitendienstonderzoek uitgevoerd. Vervolgens wordt het dossier intensief besproken in een debriefing met de medewerkers die tot besluitvorming kunnen overgaan. Het algoritme heeft een wezenlijke invloed op de volgorde waarin we meldingen afhandelen, maar neemt niet zelfstandig de beslissingen of er al dan niet sprake is van illegale vakantieverhuur.

Om te voorkomen dat medewerkers teveel vertrouwen in het algoritme hebben, is een werkinstructie opgesteld. Daarnaast volgen de medewerkers workshop over de kansen en risico’s van het gebruik van algoritmen.

Risico’s en waarborgenToon meerToon minder

Welke risico’s heeft het gebruik van het algoritme en wat doet de gemeente om deze risico’s te ondervangen?

Het systeem heeft uiteraard gevolgen voor de mogelijke overtreder. Een melding kan namelijk meer of minder prioriteit krijgen dan zonder het algoritme. We hebben verschillende maatregelen getroffen om ervoor te zorgen dat alle risico-inschattingen van het algoritme niet op toeval berusten. De belangrijkste maatregel is dat we dit algoritme in de testfase uitvoerig en voortdurend evalueren op betrouwbaarheid.

Vond u deze informatie nuttig?